Reading view

There are new articles available, click to refresh the page.

Why cyber resilience must be strategic, not a side project

As one of the world’s foremost voices on cybersecurity and crisis leadership, Sarah Armstrong-Smith has spent her career at the intersection of technology, resilience and human decision-making. Formerly chief security advisor at Microsoft Europe, and now a member of the UK Government Cyber Advisory Board, she is widely recognized for her ability to translate complex technical challenges into actionable business strategy.

In this exclusive interview with The Cyber Security Speakers Agency, Sarah explores how today’s CIOs must evolve from technology enablers to resilience architects — embedding cyber preparedness into the core of business strategy. Drawing on decades of experience leading crisis management and resilience functions at global organizations, she offers a masterclass in how technology leaders can balance innovation with security, manage disruption with clarity and build cultures of trust in an era defined by volatility and digital interdependence.

For business and technology leaders navigating the next wave of transformation, Sarah’s insights offer a rare blend of strategic depth and practical foresight — a roadmap for leadership in the age of perpetual disruption.

1. As digital transformation accelerates, how can CIOs embed cyber resilience into the very fabric of business strategy rather than treating it as a separate function?

Cyber resilience should be recognised as a strategic enabler, not merely a technical safeguard. CIOs must champion a holistic approach where resilience is woven into every stage of digital transformation — from initial design through to deployment and ongoing operations.

This requires close collaboration with business leaders to ensure risk management and security controls are embedded from the outset, rather than being an afterthought. By aligning cyber resilience objectives with business outcomes, CIOs can work alongside CISOs to help their organizations anticipate threats, adapt rapidly to disruptions and maintain stakeholder trust.

Embedding resilience also demands a shift in organizational mindset. CIOs should help to foster a culture where every employee understands their role in protecting digital assets and maintaining operational service.

This involves education and cross-functional exercises that simulate real-world incidents, aligned to current threats. By making resilience a shared responsibility and a key performance metric, CIOs can ensure their organizations are not only prepared to withstand a range of threats but are also positioned to recover quickly and thrive in the face of adversity.

2. CIOs and CISOs often face tension between innovation and security. What’s your advice for maintaining that balance while still driving progress?

Balancing innovation and security are constant challenges that require CIOs to act as both risk managers and business catalysts. The key is to embed security and resilience considerations early into the innovation lifecycle, ensuring new technologies and processes are assessed for risk early and often.

CIOs should promote agile governance frameworks that allow for rapid experimentation while maintaining clear guardrails around information protection, compliance and operational integrity. By involving security teams from the outset, organizations can identify potential vulnerabilities before they become systemic issues.

At the same time, CISOs must avoid creating a culture of fear that stifles creativity. Instead, they should encourage responsible risk-taking by providing teams with the tools, guidance and autonomy to innovate securely.

This includes leveraging automation, zero-trust architectures and continuous monitoring to reduce vulnerabilities and enable faster, safer deployment of solutions. Ultimately, the goal is to create an environment where innovation and security are mutually reinforcing, driving competitive advantage and organizational resilience.

3. You’ve led crisis management and resilience teams across major organizations. What leadership lessons can CIOs take from managing incidents under pressure?

Effective crisis leadership is built on preparation, decisiveness and transparent communication. CIOs must ensure their teams are well-versed in incident response and empowered to act swiftly when an incident occurs.

This means investing in due diligence, having clear escalation paths and robust playbooks that outline the critical path, and designated roles and responsibilities. During a crisis, leaders must remain calm, protect critical assets and make informed decisions based on real-time intelligence.

Equally important is the ability to communicate clearly with both internal and external stakeholders. CIOs and CISOs should work in unison to provide timely updates to the board, regulators and customers, balancing transparency with the need to protect vulnerable people and sensitive data.

Demonstrating accountability and empathy during a crisis can help preserve trust and minimise reputational damage. After the incident, leaders should be thoroughly committed to post-mortems to identify ‘no blame’ lessons learned and drive continuous improvement, ensuring the organization emerges stronger and more resilient.

4. With AI transforming both security threats and defences, what role should CIOs play in governing ethical and responsible AI adoption?

CIOs are uniquely positioned to guide the ethical deployment of AI and emerging tech, balancing innovation with risk management and societal responsibility. They should contribute to governance frameworks that address data privacy, algorithmic bias and transparency, ensuring AI systems are designed and operated in accordance with core organizational policies and regulatory requirements. This involves collaborating with legal, compliance and HR teams to develop policies that safeguard against unintended consequences and consequential impact.

Additionally, CIOs should champion ongoing education and awareness around AI ethics, both within IT and across the wider organization. By fostering a culture of accountability and continuous learning, CIOs can help teams identify and mitigate risks associated with AI through the implementation of rigorous engineering principles.

Regular technical and security assessments and stakeholder engagement is essential to maintaining trust and ensuring AI adoption delivers positive outcomes for those most impacted by it.

5. In your experience, what distinguishes organizations that recover stronger from a cyber incident from those that struggle to regain trust?

Organizations that recover stronger from cyber incidents typically demonstrate resilience through proactive planning, transparent communication and a commitment to continuous improvement. They invest in proactive and reactive capabilities and a positive culture driven by empathetic leadership, empowerment and accountability.

When an incident occurs, these organizations respond swiftly, contain the threat and communicate transparently with stakeholders about the actions being taken to remediate and reduce future occurrences.

Conversely, organizations that struggle often lack preparedness and fail to engage stakeholders effectively. Delayed or inconsistent communication can erode trust and amplify reputational damage.

The most resilient organizations treat incidents and near-misses as learning opportunities, conducting thorough post-incident reviews and implementing changes to strengthen their defences. By prioritising transparency, accountability and a culture of resilience, CIOs can help their organizations not only recover but also enhance their reputation and stakeholder confidence.

6. How can CIOs cultivate a security-first culture across non-technical teams — especially in remote or hybrid work environments?

Cultivating a security-first culture requires CIOs and CISOs to make cybersecurity relevant and accessible to all employees, regardless of technical expertise. This starts with tailored training programmes that address the specific risks faced by different stakeholders, rather than a one-size-fits-all approach.

This should leverage engaging formats – like interactive workshops, gamified learning and real-world simulations to reinforce positive behaviors and outcomes

Beyond training, CIOs and CISOs must embed security into everyday workflows by providing user-friendly tools and clear guidance. Regular communication, visible leadership and recognition of positive security behaviors can help sustain momentum.

In hybrid environments, CIOs should ensure policies are dynamic and adaptive to evolving threats, enabling employees to work securely without sacrificing productivity. By fostering a sense of shared responsibility and empowering non-technical teams, CIOs can build a resilient culture that extends beyond the IT department.

7. Boards are increasingly holding CIOs accountable for resilience and risk. How can technology leaders communicate complex security risks in business language?

To effectively engage boards, CIOs must translate technical issues into enterprise risks, framing cybersecurity and resilience as a strategic imperative rather than a technical challenge. This involves articulating how exposure to specific threats could affect safety, revenue, reputation, regulatory compliance and operational services. CIOs and CISOs should use clear, non-technical language, supported by real-world scenarios, to illustrate the potential consequences of ineffective controls and the value of resilience investments.

Regular, structured and diligent reporting — such as dashboards, heat maps and risk registers — can help boards visualise enterprise risk exposure and track progress over time. CIOs should foster open dialogue, encouraging board members to ask questions and participate in scenario planning.

By aligning security discussions with business objectives and demonstrating the ROI of resilience initiatives, technology and security leaders can build trust and secure the support needed to drive meaningful change.

8. What emerging risks or trends should CIOs be preparing for in 2025 and beyond?

CIOs must stay ahead of a rapidly evolving threat landscape, characterised by the proliferation of AI-enabled attacks, supply chain vulnerabilities and targeted campaigns. The rise of quantum computing poses long-term risks to traditional encryption methods, necessitating understanding and early exploration of quantum-safe solutions.

Additionally, regulatory scrutiny around data sovereignty and ethical AI is intensifying, requiring codes of conduct and governance strategies.

Beyond technology, CIOs should anticipate continuous shifts in workforce dynamics, such as the increase in human-related threats. Societal risks, geopolitical instability and the convergence of physical and cyber threats are also shaping the resilience agenda. By maintaining a forward-looking perspective and investing in adaptive capabilities, leaders can position their organizations to navigate uncertainty and capitalize on emerging opportunities.

9. How important is collaboration between CIOs and other business leaders, such as CFOs and CHROs, in building organizational resilience?

Collaboration across the entire C-suite is essential for building holistic resilience that encompasses people, technology, finance and processes. CIOs must work closely with CFOs to align resilience investments with business priorities and CROs to ensure risk management strategies are financially sustainable. Engaging CHROs is equally important, as workforce readiness and culture play a critical role in responding to and recovering from disruptions.

Joint initiatives such as cross-functional crisis simulations, integrated risk assessments and shared accountability frameworks can help break down silos and foster a unified approach to resilience.

By leveraging diverse perspectives and expertise, CIOs can drive more effective decision-making and ensure resilience is embedded throughout the organization. Ultimately, strong collaboration enables organizations to reduce assumptions, anticipate challenges, respond cohesively and emerge stronger in times of adversity.

10. Finally, what personal qualities do you believe future-ready CIOs must develop to lead effectively through constant disruption?

Future-ready CIOs must embody adaptability, strategic vision and emotional intelligence. The pace of technological change and the frequency of disruptive events demand leaders who can pivot quickly, embrace uncertainty and inspire confidence in their teams. CIOs should cultivate an inquisitive mindset, continuously seeking new knowledge and challenging conventional wisdom to stay ahead of emerging trends.

Equally important are communication and collaboration skills. CIOs must be able to articulate complex ideas clearly, build consensus across diverse stakeholders and foster a culture of trust and accountability.

Resilience, empathy and a commitment to ethical leadership will enable CIOs to navigate challenges with integrity and guide their organizations through periods of uncertainty and transformation. By developing these qualities, CIOs can lead with purpose and drive sustainable success in an ever-changing landscape.

This article is published as part of the Foundry Expert Contributor Network.
Want to join?

エンジニア視点から見たLLMエージェント実装入門──フレームワーク選定からプロトタイプ構築まで

アーキテクチャの全体像を押さえる

最初の一歩として重要なのは、LLMエージェントシステムの基本的なアーキテクチャを頭の中で描けるようにすることです。多くの場合、中核にはLLM推論APIがあり、その周囲にプロンプトテンプレート、ツール群、メモリストア、RAG用のベクトルデータベース、ログやモニタリングの仕組みが配置されます。エージェント自体は、これらを組み合わせた「オーケストレーション層」として実装され、観察・思考・行動のループを管理します。

クライアントからのリクエストは、まずアプリケーションサーバーを通じてエージェントに渡されます。エージェントは、現在のコンテキストとメモリをもとにプロンプトを構築し、LLM APIを呼び出します。LLMから返ってきた出力のうち、ツール呼び出しが含まれている部分はパースされ、対応するツール関数や外部APIが実行されます。その結果が再びエージェントに戻り、次のステップのプロンプトに組み込まれ、ループが続きます。

RAGを組み込む場合は、エージェントが必要に応じて検索ツールを呼び出し、ユーザーの質問やタスクに関連するドキュメントをベクトルデータベースから取得します。取得したテキストは、LLMのコンテキストに組み込まれ、事実ベースの回答や判断を支えます。メモリストアは、ユーザーごとの長期的な情報やタスクの中間状態を保持し、次回以降のインタラクションでも活用されます。

このような構造を意識することで、「どこを先に作り、どこを後から差し替え可能に保つか」という設計判断がしやすくなります。たとえば、最初は単純なRDBMSをメモリストアとして使い、後から専用のベクトルデータベースやキャッシュ層を追加するといった段階的なアプローチが可能になります。

フレームワーク選定と小さなプロトタイプ

実装手段としては、各社やコミュニティが提供するエージェントフレームワークやワークフローエンジンを利用する方法と、自前で薄いオーケストレーションレイヤーを書く方法があります。どちらを選ぶにせよ、「最初から完璧な基盤を作ろうとしない」ことが成功の鍵です。

フレームワークを選ぶ際には、対応しているLLMプロバイダ、ツール連携のしやすさ、ステート管理の仕組み、ログやモニタリングの機能などを確認します。また、コードの読みやすさや拡張のしやすさも重要です。エージェントの振る舞いを細かく制御したくなる場面は必ず訪れるため、ブラックボックスに見えるフレームワークよりも、中身を理解しやすいものを選ぶ方が長期的には安全です。

最初のプロトタイプとしては、一つの明確なユースケースに特化したエージェントを作るのがよいでしょう。たとえば、ウェブ検索と社内RAGを組み合わせてレポート草案を作るリサーチエージェントや、社内のFAQを参照しながら従業員の問い合わせに答えるヘルプデスクエージェントなどです。この段階では、認証や複雑な権限管理、スケーリング戦略などは最低限にとどめ、とにかくエージェントの「手触り」をチームで共有することが目的になります。

プロトタイプの中では、ツールを二、三個に絞り、メモリもセッション内の簡易なものに留めると実装が楽になります。その代わり、ログを丁寧に残し、どのようなプロンプトがどのような出力を生んだのか、ツールの呼び出しが成功したのか失敗したのかを可視化する仕組みを整えておくと、後の改善に役立ちます。

開発プロセスとテスト・評価の工夫

LLMエージェント開発でエンジニアが戸惑いやすいのが、テストの難しさです。同じ入力に対して同じ応答が返らないことも多く、従来の単体テストやスナップショットテストの手法をそのまま適用することは困難です。そこで重要になるのが、シナリオベースの評価と、自動評価と人手評価の組み合わせです。

具体的には、典型的なタスクシナリオを複数用意し、それぞれについて期待される振る舞いの条件を定義します。たとえば「この問い合わせに対しては、社内規程の該当箇所を引用しつつ、三つの選択肢を提示する」といったレベルです。エージェントを定期的にこれらのシナリオに対して実行し、LLMを用いた自動評価やルールベースのチェッカーで合否を判定します。これに加えて、重要なシナリオについては人手によるレビューを行い、主観的な品質も確認します。

開発プロセスとしては、プロンプトやツール構成を頻繁に変更できるようにしつつ、変更の影響範囲を把握するための評価ジョブをCIに組み込むとよいでしょう。エージェントの設定を変更するたびに、シナリオ評価を走らせ、重要指標の変化を可視化します。これにより、「一つのユースケースを改善したつもりが、別のユースケースを劣化させてしまった」といった事態を早期に検知できます。

最後に、運用フェーズでは、ユーザーのフィードバックとログ分析が重要な情報源になります。ユーザーに簡単に「この回答は役に立ったか」「どこが問題だったか」を送信してもらえるインターフェースを用意し、その情報をログと紐づけて分析することで、改善の優先順位を決めることができます。エンジニアは、モデルやプロンプトの調整だけでなく、ツールの追加・削除、メモリ戦略の見直し、エラー処理の強化など、システム全体を対象とした改善を継続的に行うことになります。

LLMエージェント実装は、単なるAPI呼び出しのラッパー作りではなく、推論システム、ワークフロー、データ基盤、UXが交差する総合格闘技のような領域です。しかし、小さなプロトタイプから始め、アーキテクチャの骨格を意識しながら徐々に拡張していけば、現実的なコストで本番運用に耐えうるエージェントを育てていくことができます。

安全なLLMエージェントを作るためのリスクとガバナンス──幻覚・セキュリティ・法的責任

LLMエージェント特有のリスクの全体像

まず押さえておきたいのは、LLMエージェントのリスクは、単一の技術的問題ではなく、複数のレイヤーにまたがっているという点です。ひとつは、LLMそのものが持つ幻覚の問題です。もっともらしいが誤った情報を自信満々に語ってしまう振る舞いはよく知られていますが、エージェントとして外部ツールにアクセスする場合、この誤りが具体的なアクションにつながってしまう可能性があります。存在しないAPIエンドポイントを呼び出そうとしたり、誤った条件でデータを抽出したりすることは、業務プロセスに直接的な影響を与えます。

次に、セキュリティとプライバシーのリスクがあります。エージェントは、ユーザーの入力内容だけでなく、社内の各種システムやドキュメントにアクセスすることが多く、その過程で機密情報を扱います。これらの情報がモデル提供者やログシステムを通じて外部に送信される場合、情報管理上のリスクが生じます。また、エージェントが攻撃者に悪用される可能性も無視できません。たとえば、プロンプトインジェクション攻撃によってエージェントの行動方針が書き換えられ、意図しない情報送信や操作が行われるといったシナリオです。

さらに、法的責任の問題もあります。エージェントが生成した内容や実行したアクションが法令違反や契約違反につながった場合、誰が責任を負うのか。モデル提供者か、エージェントを組み込んだサービス提供者か、それとも最終的に利用したユーザーか。この問いに明確な答えが出ていない領域も多く、ガバナンス設計の難しさを増しています。

ガードレール設計と権限管理の考え方

こうしたリスクに対処するためには、技術的・運用的なガードレールを多層的に設計する必要があります。その中心にあるのが権限管理です。エージェントに与える権限は、原則として必要最小限にとどめ、「まずは読み取り専用から始める」ことが安全なアプローチです。たとえば、CRMシステムとの連携では、最初は顧客情報の参照のみに絞り、一定期間問題がないことを確認したうえで、レコード更新の権限を限定的に解放していくといった段階的な設計が考えられます。

また、危険度の高いアクションについては、必ず人間の承認を挟むワークフローにすることが重要です。高額な支払い指示、契約条件の変更、対外的な重要文書の送付などは、エージェントがドラフトや提案を行うことはあっても、最終実行は人間が行う形にすべきです。この「人間の承認ステップ」をエージェントのフローの中に明示的に組み込むことで、誤動作の影響を限定できます。

プロンプトインジェクションやデータ漏えいへの対策としては、入力と出力のフィルタリングも欠かせません。ユーザー入力や外部サイトから取得したテキストをそのままシステムプロンプトに取り込まない、外部に送信してはならない情報が出力に含まれていないかをチェックする、特定のキーワードやパターンが検出された場合には処理を停止してアラートを上げるといった仕組みが有効です。これらは、モデルの外側のアプリケーションレイヤーで実装できることが多く、ガードレールの重要な一部になります。

モニタリングと責任の明確化によるガバナンス

ガードレールを設計したとしても、一度導入したエージェントをそのまま放置してよいわけではありません。エージェントは学習済みモデルの上に成り立っているとはいえ、その挙動はコンテキストや環境によって変化します。したがって、運用開始後も継続的なモニタリングと改善が必要です。

モニタリングの対象には、成功したタスクと失敗したタスクの比率、ユーザーによる修正頻度、エラーや例外の発生パターン、セキュリティ上の疑義のある挙動などが含まれます。特に重要なのは、「重大事故につながる手前の未遂事例」を早期に検知することです。たとえば、エージェントが禁止されている外部ドメインへのアクセスを試みたが、ガードレールによりブロックされたというログは、設計の改善余地を示す貴重なシグナルです。

また、責任の明確化もガバナンスの一部です。組織内部においては、エージェントの設計と運用について最終責任を負うオーナーを明示し、変更管理やインシデント対応のプロセスを定義しておく必要があります。外部向けには、利用規約やプライバシーポリシーにおいて、エージェントの機能と限界、ユーザー側に求められる確認義務などを分かりやすく説明することが求められます。

安全なLLMエージェントとは、リスクがゼロのエージェントではなく、リスクが可視化され、コントロール可能な形で運用されているエージェントです。幻覚や誤判断を完全に排除することはできない以上、それらを前提として、どこで止め、どこで人間につなぐのか、問題が発生したときにどう検知し、どう学びに変えるのかというガバナンスの枠組みこそが、設計と同じくらい重要になっていきます。

CIOs shift from ‘cloud-first’ to ‘cloud-smart’

Common wisdom has long held that a cloud-first approach will gain CIOs benefits such as agility, scalability, and cost-efficiency for their applications and workloads. While cloud remains most IT leaders’ preferred infrastructure platform, many are rethinking their cloud strategies, pivoting from cloud-first to “cloud-smart” by choosing the best approach for specific workloads rather than just moving everything off-premises and prioritizing cloud over other considerations for new initiatives.

Cloud cost optimization is one factor motivating this rethink, with organizations struggling to control escalating cloud expenses amid rapid growth. An estimated 21% of enterprise cloud infrastructure spend, equivalent to $44.5 billion in 2025, is wasted on underutilized resources — with 31% of CIOs wasting half of their cloud spend, according to a recent survey from VMware.

The full rush to the cloud is over, says Ryan McElroy, vice president of technology at tech consultancy Hylaine. Cloud-smart organizations have a well-defined and proven process for determining which workloads are best suited for the cloud.

For example, “something that must be delivered very quickly and support massive scale in the future should be built in the cloud,” McElroy says. “Solutions with legacy technology that must be hosted on virtual machines or have very predictable workloads that will last for years should be deployed to well-managed data centers.”

The cloud-smart trend is being influenced by better on-prem technology, longer hardware cycles, ultra-high margins with hyperscale cloud providers, and the typical hype cycles of the industry, according to McElroy. All favor hybrid infrastructure approaches.

However, “AI has added another major wrinkle with siloed data and compute,” he adds. “Many organizations aren’t interested in or able to build high-performance GPU datacenters, and need to use the cloud. But if they’ve been conservative or cost-averse, their data may be in the on-prem component of their hybrid infrastructure.”

These variables have led to complexity or unanticipated costs, either through migration or data egress charges, McElroy says.

He estimates that “only 10% of the industry has openly admitted they’re moving” toward being cloud-smart. While that number may seem low, McElroy says it is significant.

“There are a lot of prerequisites to moderate on your cloud stance,” he explains. “First, you generally have to be a new CIO or CTO. Anyone who moved to the cloud is going to have a lot of trouble backtracking.”

Further, organizations need to have retained and upskilled the talent who manage the datacenter they own or at the co-location facility. They must also have infrastructure needs that outweigh the benefits the cloud provides in terms of raw agility and fractional compute, McElroy says.

Selecting and reassessing the right hyper-scaler

Procter & Gamble embraced a cloud-first strategy when it began migrating workloads about eight years ago, says Paola Lucetti, CTO and senior vice president. At that time, the mandate was that all new applications would be deployed in the public cloud, and existing workloads would migrate from traditional hosting environments to hyperscalers, Lucetti says.

“This approach allowed us to modernize quickly, reduce dependency on legacy infrastructure, and tap into the scalability and resilience that cloud platforms offer,” she says.

Today, nearly all P&G’s workloads run on cloud. “We choose to keep selected workloads outside of the public cloud because of latency or performance needs that we regularly reassess,” Lucetti says. “This foundation gave us speed and flexibility during a critical phase of digital transformation.”

As the company’s cloud ecosystem has matured, so have its business priorities. “Cost optimization, sustainability, and agility became front and center,” she says. “Cloud-smart for P&G means selecting and regularly reassessing the right hyperscaler for the right workload, embedding FinOps practices for transparency and governance, and leveraging hybrid architectures to support specific use cases.”

This approach empowers developers through automation, AI, and agentic to drive value faster, Lucetti says. “This approach isn’t just technical — it’s cultural. It reflects a mindset of strategic flexibility, where technology decisions align with business outcomes.”

AI is reshaping cloud decisions

AI represents a huge potential spend requirement and raises the stakes for infrastructure strategy, says McElroy.

“Renting servers packed with expensive Nvidia GPUs all day every day for three years will be financially ruinous compared to buying them outright,” he says, “but the flexibility to use next year’s models seamlessly may represent a strategic advantage.”

Cisco, for one, has become far more deliberate about what truly belongs in the public cloud, says Nik Kale, principal engineer and product architect. Cost is one factor, but the main driver is AI data governance.

“Being cloud-smart isn’t about repatriation — it’s about aligning AI’s data gravity with the right control plane,” he says.

IT has parsed out what should be in a private cloud and what goes into a public cloud. “Training and fine-tuning large models requires strong control over customer and telemetry data,” Kale explains. “So we increasingly favor hybrid architectures where inference and data processing happen within secure, private environments, while orchestration and non-sensitive services stay in the public cloud.”

Cisco’s cloud-smart strategy starts with data classification and workload profiling. Anything with customer-identifiable information, diagnostic traces, and model feedback loops are processed within regionally compliant private clouds, he says.

Then there are “stateless services, content delivery, and telemetry aggregation that benefit from public-cloud elasticity for scale and efficiency,” Kale says.

Cisco’s approach also involves “packaging previously cloud-resident capabilities for secure deployment within customer environments — offering the same AI-driven insights and automation locally, without exposing data to shared infrastructure,” he says. “This gives customers the flexibility to adopt AI capabilities without compromising on data residency, privacy, or cost.”

These practices have improved Cisco’s compliance posture, reduced inference latency, and yielded measurable double-digit reductions in cloud spend, Kale says.

One area where AI has fundamentally changed their approach to cloud is in large-scale threat detection. “Early versions of our models ran entirely in the public cloud, but once we began fine-tuning on customer-specific telemetry, the sensitivity and volume of that data made cloud egress both costly and difficult to govern,” he says. “Moving the training and feedback loops into regional private clouds gave us full auditability and significantly reduced transfer costs, while keeping inference hybrid so customers in regulated regions received sub-second response times.”

IT saw a similar issue with its generative AI support assistant. “Initially, case transcripts and diagnostic logs were processed in public cloud LLMs,” Kale says. “As customers in finance and healthcare raised legitimate concerns about data leaving their environments, we re-architected the capability to run directly within their [virtual private clouds] or on-prem clusters.”

The orchestration layer remains in the public cloud, but the sensitive data never leaves their control plane, Kale adds.

AI has also reshaped how telemetry analytics is handled across Cisco’s CX portfolio. IT collects petabyte-scale operational data from more than 140,000 customer environments.

“When we transitioned to real-time predictive AI, the cost and latency of shipping raw time-series data to the cloud became a bottleneck,” Kale says. “By shifting feature extraction and anomaly detection to the customer’s local collector and sending only high-level risk signals to the cloud, we reduced egress dramatically while improving model fidelity.”

In all instances, “AI made the architectural trade-offs clear: Specific workloads benefit from public-cloud elasticity, but the most sensitive, data-intensive, and latency-critical AI functions need to run closer to the data,” Kale says. “For us, cloud-smart has become less about repatriation and more about aligning data gravity, privacy boundaries, and inference economics with the right control plane.”

A less expensive execution path

Like P&G, World Insurance Associates believes cloud-smart translates to implementing a FinOps framework. CIO Michael Corrigan says that means having an optimized, consistent build for virtual machines based on the business use case, and understanding how much storage and compute is required.

Those are the main drivers to determine costs, “so we have a consistent set of standards of what will size our different environments based off of the use case,” Corrigan says. This gives World Insurance what Corrigan says is an automated architecture.

“Then we optimize the build to make sure we have things turned on like elasticity. So when services aren’t used typically overnight, they shut down and they reduce the amount of storage to turn off the amount of compute” so the company isn’t paying for it, he says. “It starts with the foundation of optimization or standards.”

World Insurance works with its cloud providers on different levels of commitment. With Microsoft, for example, the insurance company has the option to use virtual machines, or what Corrigan says is a “reserved instance.” By telling the provider how many machines they plan to consume or how much they intend to spend, he can try to negotiate discounts.

“That’s where the FinOps framework has to really be in place … because obviously, you don’t want to commit to a level of spend that you wouldn’t consume otherwise,” Corrigan says. “It’s a good way for the consumer or us as the organization utilizing those cloud services, to get really significant discounts upfront.”

World Insurance is using AI for automation and alerts. AI tools are typically charged on a compute processing model, “and what you can do is design your query so that if it is something that’s less complicated, it’s going to hit a less expensive execution path” and go to a small language model (SLM), which doesn’t use as much processing power, Corrigan says.

The user gets a satisfactory result, and “there is less of a cost because you’re not consuming as much,” he says.

That’s the tactic the company is taking — routing AI queries to the less expensive model. If there is a more complicated workflow or process, it will be routed to the SLM first “and see if it checks the box,” Corrigan says. If its needs are more complex, it is moved to the next stage, which is more expensive, and generally involves an LLM that requires going through more data to give the end user what they’re looking for.

“So we try to manage the costs that way as well so we’re only consuming what’s really needed to be consumed based on the complexity of the process,” he says.

Cloud is ‘a living framework’

Hylaine’s McElroy says CIOs and CTOs need to be more open to discussing the benefits of hybrid infrastructure setups, and how the state of the art has changed in the past few years.

“Many organizations are wrestling with cloud costs they know instinctively are too high, but there are few incentives to take on the risky work of repatriation when a CFO doesn’t know what savings they’re missing out on,” he says.

Lucetti characterizes P&G’s cloud strategy as “a living framework,” and says that over the next few years, the company will continue to leverage the right cloud capabilities to enable AI and agentic for business value.

“The goal is simple: Keep technology aligned with business growth, while staying agile in a rapidly changing digital landscape,” she says. “Cloud transformation isn’t a destination — it’s a journey. At P&G, we know that success comes from aligning technology decisions with business outcomes and by embracing flexibility.”

Get data, and the data culture, ready for AI

When it comes to AI adoption, the gap between ambition and execution can be impossible to bridge. Companies are trying to weave the tech into products, workflows, and strategies, but good intentions often collapse under the weight of the day-to-day realities from messy data and lack of a clear plan.

“That’s the challenge we see most often across the global manufacturers we work with,” says Rob McAveney, CTO at software developer Aras. “Many organizations assume they needAI, when the real starting point should be defining the decision you want AI to support, and making sure you have the right data behind it.”

Nearly two-thirds of leaders say their organizations have struggled to scale AI across the business, according to a recent McKinsey global survey. Often, they can’t move beyond tests of pilot programs, a challenge that’s even more pronounced among smaller organizations. Often, pilots fail to mature, and investment decisions become harder to justify.

A typical issue is the data simply isn’t ready for AI. Teams try to build sophisticated models on top of fragmented sources or messy data, hoping the technology will smooth over the cracks.

“From our perspective, the biggest barriers to meaningful AI outcomes are data quality, data consistency, and data context,” McAveney says. “When data lives in silos or isn’t governed with shared standards, AI will simply reflect those inconsistencies, leading to unreliable or misleading outcomes.”

It’s an issue that impacts almost every sector. Before organizations double down on new AI tools, they must first build stronger data governance, enforce quality standards, and clarify who actually owns the data meant to fuel these systems.

Making sure AI doesn’t take the wheel

In the rush to adopt AI, many organizations forget to ask the fundamental questionofwhat problem actually needs to be solved. Without that clarity, it’s difficult to achieve meaningful results.

Anurag Sharma, CTO of VyStar Credit Union believes AI is just another tool that’s available to help solve a given business problem, and says every initiative should begin with a clear, simple statement of the business outcome it’s meant to deliver. He encourages his team to isolate issues AI could fix, and urges executives to understand what will change and who will be affected before anything moves forward.

“CIOs and CTOs can keep initiatives grounded by insisting on this discipline, and by slowing down the conversation just long enough to separate the shiny from the strategic,” Sharma says.

This distinction becomes much easier when an organization has an AI COE or a dedicated working group focused on identifying real opportunities. These teams help sift through ideas, set priorities, and ensure initiatives are grounded in business needs rather than buzz.

The group should also include the people whose work will be affected by AI, along with business leaders, legal and compliance specialists, and security teams. Together, they can define baseline requirements that AI initiatives must meet.

“When those requirements are clear up front, teams can avoid pursuing AI projects that look exciting but lack a real business anchor,” says Kayla Underkoffler, director of AI security and policy advocacy at security and governance platform Zenity.

She adds that someone in the COE should have a solid grasp of the current AI risk landscape. That person should be ready to answer critical questions, knowing what concerns need to be addressed before every initiative goes live.

“A plan could have gaping cracks the team isn’t even aware of,” Underkoffler says. “It’s critical that security be included from the beginning to ensure the guardrails and risk assessment can be added from the beginning and not bolted on after the initiative is up and running.”

In addition, there should be clear, measurable business outcomes to make sure the effort is worthwhile. “Every proposal must define success metrics upfront,” says Akash Agrawal, VP of DevOps and DevSecOps at cloud-based quality engineering platform LambdaTest, Inc. “AI is never explored, it’s applied.”

He recommends companies build in regular 30- or 45-day checkpoints to ensure the work continues to align with business objectives. And if the results don’t meet expectations, organizations shouldn’t hesitate to reassess and make honest decisions, he says. Even if that means walking away from the initiative altogether.

Yet even when the technology looks promising, humans still need to remain in the loop. “In an early pilot of our AI-based lead qualification, removing human review led to ineffective lead categorization,” says Shridhar Karale, CIO at sustainable waste solutions company, Reworld. “We quickly retuned the model to include human feedback, so it continually refines and becomes more accurate over time.”

When decisions are made without human validation, organizations risk acting on faulty assumptions or misinterpreted patterns. The aim isn’t to replace people, but to build a partnership in which humans and machines strengthen one other.

Data, a strategic asset

Ensuring data is managed effectively is an often overlooked prerequisite for making AI work as intended. Creating the right conditions means treating data as a strategic asset: organizing it, cleaning it, and having the right policies in place so it stays reliable over time.

“CIOs should focus on data quality, integrity, and relevance,” says Paul Smith, CIO at Amnesty International. His organization works with unstructured data every day, often coming from external sources. Given the nature of the work, the quality of that data can be variable. Analysts sift through documents, videos, images, and reports, each produced in different formats and conditions. Managing such a high volume of messy, inconsistent, and often incomplete information has taught them the importance of rigor.

“There’s no such thing as unstructured data, only data that hasn’t yet had structure applied to it,” Smith says. He also urges organizations to start with the basics of strong, everyday data-governance habits. That means checking whether the data is relevant, and ensuring it’s complete, accurate, and consistent, and outdated information can skew results.

Smith also emphasizes the importance of verifying data lineage. That includes establishing provenance — knowing where the data came from and whether its use meets legal and ethical standards — and reviewing any available documentation that details how it was collected or transformed.

In many organizations, messy data comes from legacy systems or manual entry workflows. “We strengthen reliability by standardizing schemas, enforcing data contracts, automating quality checks at ingestion, and consolidating observability across engineering,” says Agrawal.

When teams trust the data, their AI outcomes improve. “If you can’t clearly answer where the data came from and how trustworthy is it, then you aren’t ready,” Sharma adds. “It’s better to slow down upfront than chase insights that are directionally wrong or operationally harmful, especially in the financial industry where trust is our currency.”

Karale says that at Reworld, they’ve created a single source of truth data fabric, and assigned data stewards to each domain. They also maintain a living data dictionary that makes definitions and access policies easy to find with a simple search. “Each entry includes lineage and ownership details so every team knows who’s responsible, and they can trust the data they use,” Karale adds.

A hard look in the organizational mirror

AI has a way of amplifying whatever patterns it finds in the data — the helpful ones, but also the old biases organizations would rather leave behind. Avoiding that trap starts with recognizing that bias is often a structural issue.

CIOs can do a couple of things to prevent problems from taking root. “Vet all data used for training or pilot runs and confirm foundational controls are in place before AI enters the workflow,” says Underkoffler.

Also, try to understand in detail how agentic AI changes the risk model. “These systems introduce new forms of autonomy, dependency, and interaction,” she says. “Controls must evolve accordingly.”

Underkoffler also adds that strong governance frameworks can guide organizations on monitoring, managing risks, and setting guardrails. These frameworks outline who’s responsible for overseeing AI systems, how decisions are documented, and when human judgment must step in, providing structure in an environment where the technology is evolving faster than most policies can keep up.

And Karale says that fairness metrics, such as disparate impact, play an important role in that oversight. These measures help teams understand whether an AI system is treating different groups equitably or unintentionally favoring one over another. These metrics could be incorporated into the model validation pipeline.

Domain experts can also play a key role in spotting and retraining models that produce biased or off-target outputs. They understand the context behind the data, so they’re often the first to notice when something doesn’t look right. “Continuous learning is just as important for machines as it is for people,” says Karale.

Amnesty International’s Smith agrees, saying organizations need to train their people continuously to help them pick out potential biases. “Raise awareness of risks and harms,” he says. “The first line of defense or risk mitigation is human.”

SAS, 2026년 AI 산업을 이끌 8가지 전망 공개···책임성·ROI 중요성 커져

SAS는 2025년을 돌아보면서 AI 기술의 빠른 발전과 다양한 성과를 인정하면서도, 잠재적인 AI 거품, 에너지 사용 증가에 따른 부담, 생성형 AI 파일럿 프로젝트의 기대 이하 성과 등 여러 우려 요소가 존재한다고 밝혔다. SAS 전문가들은 2026년이 AI로부터 실질적인 ROI(투자수익률)를 확보하고, 윤리적·경제적 과제를 본격적으로 해결해야 하는 중요한 시기가 될 것이라고 전망했다.

앞으로의 전망에는 우려와 함께 신중한 기대감도 공존한다. SAS 주요 리더들은 AI 발전의 핵심 요인으로 ‘책임성’을 강조하며, AI 공급자뿐 아니라 이를 활용하는 조직 모두가 책임 있는 방식으로 기술을 적용해야 한다고 말했다. 또한 데이터 관리의 기본을 강화하고 신뢰할 수 있는 AI를 구축하는 것이 기술 성숙 단계로 나아가고 조직의 역량을 강화하며 혁신 속도를 높이는 데 중요한 기반이 된다고 설명했다.

SAS의 데이터 및 AI 리더들이 제시하는 2026년 주요 전망은 아래와 같다.

  1. AI 시장의 심판: 책임 있는 혁신에 대한 요구
    2026년은 AI 시장의 심판이 시작되는 해가 될 것이다. AI에 대한 과도한 기대가 거버넌스와 충돌하고, 책임 있는 혁신만이 살아남는 시점이다. 일관된 ROI와 투명한 감독에 대한 요구는 증가하고 검증되지 않은 허황된 프로젝트는 폐기될 것이다. 기본이 되는 데이터 오케스트레이션, 견고한 모델링, 설명 가능한 거버넌스에 투자를 재집중시킬 것이다. 과대평가된 기술은 사라지고, 측정 가능한 효과와 운영의 엄격함을 갖춘 책임 있는 AI가 그 자리를 차지하게 될 것이다. 이 과정이 얼마나 강도 높게 진행될 것인지와 AI의 진정한 르네상스가 언제 시작될 것인지에 대한 의문은 계속될 것으로 전망된다.
  1. AI 지출의 대격변
    챗GPT 래퍼(wrapper)와 같은 기술에 수십억 달러가 투입된 후, CFO들은 이제 실질적인 ROI를 요구하고 있다. 그러나 대부분의 생성형 AI 프로젝트에서 ROI 달성은 어려울 것으로 예상된다. ‘AI 혁신’이라는 명목으로 예산 집행이 정당화되던 시기는 지났다. 이제 쿼리당 비용, 정확도, 측정 가능한 비즈니스 성과에 대한 확인과 분석이 필수다. 6~12개월 내에 구체적인 비용 절감, 매출 성장 또는 생산성 향상을 입증하지 못하는 기업은 AI 이니셔티브가 중단되거나 공급업체를 교체하게 될 것이다.
  2. 에이전틱(Agentic) AI가 손익에 대한 책임을 갖게 될 것
    포춘 500대 기업들은 2026년 말까지 고객 상호작용의 4분의 1 이상을 에이전틱 시스템이 자율적으로 처리할 것으로 전망했다. 이 에이전트들은 단순 상담을 넘어 측정 가능한 매출 효과를 발생시킬 것이다. 그 결과 ‘최고 에이전트 책임자(Chief Agent Officer)’와 같은 새로운 역할이 생겨날 것으로 예상된다. 반면, 자율 시스템이 매출을 주도하게 되면 대규모 ‘에이전트 장애’ 발생 시 막대한 여파를 초래할 수 있으며, 이로 인한 다운타임은 기업 매출에 직접적인 타격을 주게 될 것이다.
  3. 새로운 동료, 에이전틱 AI
    2026년, 기업은 AI 에이전트가 더 이상 도구가 아닌 팀원이 되는 새로운 생태계로 진입하게 될 것이다. 사람과 AI가 혼합된 팀으로 운영되며, 에이전트는 신뢰할 수 있는 협력자로서 업무를 수행하고, 업무 맥락을 공유하며 사람들과 함께 지속적으로 학습하게 될 것이다.
  1. AI 대체론보다 AI 역량 강화론
    AI를 사용해 일자리를 없앨 것인가, 아니면 AI로 사람들에게 힘을 실어 경쟁 우위를 창출할 것인가? 2026년 리더들은 이 두 가지 선택지 사이에서 고민하게 될 것이다. 점점 더 명확해지는 사실은 AI는 사람을 대체하는 것이 아니라 사람의 역량을 강화한다는 것이다. 기업은 지속적인 변화를 통해 인력에 투자할 수 있는 대담하고 주도적인 리더를 필요로 하게 될 것이다.
  2. 합성 데이터가 AI 패권의 새로운 전장이 될 것
    합성 데이터는 단순한 임시방편이 아니라, 데이터 부족, 프라이버시 제한, 컴플라이언스 병목에 맞서는 전략적 무기다. 2026년에는 데이터 군비 경쟁이 벌어질 것이며, 기업들은 멀티모달 현실 데이터뿐 아니라 얼마나 확신 있게 데이터를 생성할 수 있는지를 놓고 경쟁하게 될 것이다. 실제와 같은 정교함을 갖추고, 실험적 기능에서 벗어나 비즈니스 우위를 창출하는 대규모 전환에 성공하는 기업이 승자가 될 것이다.
  3. CIO? 이제는 ‘최고 통합 책임자(Chief Integration Officer)’의 시대
    2026년 CIO들이 에이전틱 AI의 미래를 준비하는 주역이 되면서, 기존의 기술 제공자에서 에이전틱 AI를 위한 ‘통합자’로 역할이 달라질 것이다. 즉, ‘최고 통합 책임자(Chief Integration Officer)’로의 전환을 의미한다. 에이전트가 주도하는 세상에서 IT 아키텍처의 미래를 설계하기 위해, AI 거버넌스, 통합, 그리고 부서 간 리더십이 CIO들의 일상 업무가 될 것이다.  
  1. 양자(Quantum)에 거는 기대
    2026년 양자 시장은 관련 기술이 2030년까지 초기 단계의 가치를 실현할 것이라는 기대감과 함께 더욱 뜨거워질 것이다. 투자자들은 하드웨어와 포스트-양자 암호화에서 벗어나 소프트웨어와 애플리케이션에 더 큰 비중을 두게 될 것이다. 한편, 실제 양자 가치를 구현하는 소프트웨어 및 애플리케이션 계층을 포함해 전체 스택을 포괄하는 ‘양자 아키텍처(Quantum Architecture)’라는 용어에 주목할 필요가 있다. 이러한 미래에 대응하기 위해 전문 인력 채용이 급증할 것으로 예상된다.

이중혁 SAS코리아 대표이사는 “전 세계적으로 AI 투자에 대한 ROI와 신뢰성 확보 요구가 높아지는 가운데, 국내 기업들도 AI 도입에 대해 단기적·실험적 접근에서 중장기적·전략적 관점으로 전환하고 있다”라고 말했다. 또한 “단순 업무에 적용되던 대규모 언어 모델(LLM, Large Language Models) 기반 생성형 AI의 비즈니스 수익 개선 효과에 의문을 제기하는 조직이 늘어나면서, 대안으로 에이전틱 AI를 고려하는 움직임이 확산되고 있다”고 설명했다.

그는 2026년 국내 시장 전망에 대해 “금융권에서는 리스크 관리, 내부통제, ALM(자산·부채 종합관리) 등 전문 영역에서 AI 적용을 확대해 실질적 ROI를 확보하려는 시도가 더욱 활발해질 것이며, 공공 분야는 디지털플랫폼정부 2.0을 중심으로 AI·클라우드·보안 투자가 강화되는 동시에, 에이전틱 AI 기반 업무 효율화와 합성 데이터의 활용이 AI 투자의 핵심이 될 것”이라고 전망했다.

이중혁 대표이사는 내년도 사업에 대해 “글로벌 성공 사례를 기반으로 국내 고객들이 AI 거버넌스를 확보하고 비즈니스 가치를 창출할 수 있도록 금융·공공 부문 솔루션과 전문 서비스를 통해 적극 지원하겠다”고 강조했다.
dl-ciokorea@foundryco.com

채용만으론 부족하다···CIO의 리더십이 인재 유지에 중요한 이유

기술 직원, 특히 전문 역량을 갖춘 인재는 여전히 확보하기 어렵다. Gi그룹의 최근 글로벌 IT HR 트렌드 보고서에 따르면, 기업의 47%가 적합한 인재를 찾고 유지하는 데 어려움을 겪는 것으로 나타났다. 이직률 역시 여전히 높은 수준을 유지하고 있다.

글로벌 조사 업체 세고스(Cegos)가 이탈리아의 정보시스템 책임자 200명을 대상으로 진행한 조사에서, 응답자의 53%는 IT 인재 확보와 유지가 ‘매일 직면하는 문제’라고 답했다. IT 부서의 가장 시급한 과제로는 사이버보안이 꼽혔지만, 이 문제는 다수의 CIO가 일정 수준 해결할 수 있다고 느끼는 영역이었다. 반면 IT 인재 부족 문제를 해결할 수 있다고 자신한 비율은 8%에 불과했다. 이탈리아 CIO는 사이버보안 다음으로 IT 팀의 역량 개발과 인재 유지를 중대한 과제로 꼽았으며, 이를 해결할 수 있다고 본 비율도 각각 24%와 9%에 그쳤다.

이탈리아 통계청 이스타트(Istat)의 CIO인 체칠리아 콜라산티는 “인재가 없어서가 아니다”라고 말했다. 그는 “인재는 분명히 있지만 제대로 평가받지 못한다. 그래서 많은 이들이 해외로 나가는 길을 택한다. 인재란 ‘적재적소에 놓인 사람’을 의미한다. CIO를 포함한 리더라면 인재를 알아보고, 그들이 인정받고 있다는 사실을 느끼게 하며, 적절한 기회를 제공해 성장시킬 역량을 갖춰야 한다”라고 설명했다.

인재 관리의 주체가 된 CIO

콜라산티는 결속력 있고 동기 부여된 조직을 만들기 위한 인재 관리 방법을 명확히 제시했다. 그는 “CIO로서 스스로 설정한 목표는 내부와 외부의 서비스 이용자에게 더 높은 품질의 결과물을 계속 제공하는 것이었다”라며, “IT 부서는 업무 운영에 핵심적인 동력이기 때문에 시작한 프로젝트를 확실히 마무리하고, 기관이 지속적으로 개선할 수 있도록 구체적인 성과를 내는 것이 중요하다. 나는 IT 기능 자체를 고도화하고, 제공되는 서비스의 품질을 높이며, 조직 운영의 적합성을 확보하고, 구성원의 복지를 향상하는 역할을 맡고 있다”라고 말했다.

이스타트의 IT 부서는 현재 195명 규모로, 기관 전체 인력의 약 10%를 차지한다. 콜라산티가 2023년 10월 CIO로 임명된 직후 가장 먼저 한 일은, 관리 조직에 배치된 모든 인력을 직접 만나 대화를 나누는 일이었다.

콜라산티는 “2001년부터 이스타트에서 일해왔고, 서로 대부분 알고 지내는 사이”라고 말했다. 그는 “IT 부서에서 여러 역할을 맡아왔으며, CIO가 된 뒤에는 모두의 의견을 경청하는 데 집중한다. 서로 잘 아는 만큼 동료들이 협업에 큰 기대를 걸고 있다고 느낀다. 그래서 솔직한 대화를 추구하고 모호함을 피하려고 한다. 다만, 경청한다는 게 책임을 넘긴다는 뜻은 아니다. 어떤 제안은 받아들이고 어떤 제안은 거절하며, 선택에는 나름의 이유를 설명하려고 한다”라고 설명했다.

콜라산티는 또 다른 조치로 오래전 이스타트에서 진행됐던 ‘두 가지 문제, 두 가지 해결책’ 프로그램을 다시 도입했다. 이는 직원들에게 자발적으로 두 가지 문제를 정의하고 두 가지 해결책을 제안해 달라고 요청하는 방식이다. 그는 수집된 내용을 직접 검토해, 대면 미팅에서 의견을 공유하고 제안의 타당성을 논의하며 후속 조치가 필요한 사항을 평가했다. 그는 이 프로그램이 동료들과의 신뢰를 다지는 데 매우 효과적이었다고 분석했다.

일부 의견은 경력 개발 기회나 기술적 문제에 관한 것이었지만, 가장 많이 제기된 불만은 내부 커뮤니케이션 문제와 인력 부족이었다. 콜라산티는 모든 사람과 대화를 나누며, 자신이 개입할 수 있는 부분과 그렇지 못한 부분을 명확히 설명했다. 예를 들어 공공 부문의 경력 체계나 채용은 엄격한 절차에 따라 진행되기 때문에 CIO가 영향을 미칠 수 있는 여지가 거의 없다.

콜라산티는 “모든 이슈를 능동적으로 해결하려고 했다. 구체적인 문제라기보다 변화에 대한 막연한 저항처럼 느껴지는 부분에 대해서는 구성원의 내적 동기와 책임감을 끌어내는 데 집중했다. 기관의 전략이 무엇이며, 목표를 달성하기 위해 각자가 어떤 역할을 수행해야 하는지 설명하는 과정이 매우 중요하다. 결국 사람들은 자신이 어떤 환경에서 일하고 있는지, 그리고 자신의 일이 전체 그림에 어떤 영향을 미치는지 알 권리가 있다”라고 강조했다.

조직의 참여와 몰입은 하루아침에 만들어지지 않기 때문에, 콜라산티는 부서장과 서비스 매니저를 포함한 직원들과 정기적으로 만나며 소통을 이어가고 있다.

고민이 더 큰 중소기업

이스타트의 경우 IT 부서 규모가 큰 편에 속하지만, 중소기업에서는 CIO를 포함해 몇 명 안 되는 구성원만으로 IT 부서를 운영하는 경우가 많다. 상당 부분은 외부 컨설턴트나 벤더가 맡아 일을 진행한다. 이런 구조에서는 여러 프로젝트에 걸쳐 자원을 조율하는 업무와 실제 IT 운영 업무를 동시에 처리해야 하므로 부담이 크다. 클라우드 아웃소싱은 하나의 방법이 될 수 있지만, 많은 CIO가 벤더 종속을 피하기 위해 내부 역량을 더 확보하길 원한다.

IT 인력이 3명뿐인 한 중소 의료기업 CIO는 “인재를 끌어오는 것도, 붙잡아두는 것도 어려워 결국 아웃소싱을 할 수밖에 없다”라고 말했다. 그는 “업무를 외부로 넘겨 내부 자원을 확보하려면 회사의 노하우가 빠져나갈 위험도 감수해야 한다. 하지만 지금으로선 다른 선택지가 없다. 대기업 수준의 연봉을 제시할 수 없고, 이직이 잦은 IT 인재에게 꾸준히 동기를 부여하기가 매우 어렵다. 사람을 뽑아 교육하고, 조금씩 성장하는 모습을 지켜보다가 결국 떠나는 상황이 반복되고 있다. 게다가 의료 산업은 전문성이 매우 높아 필요한 역량을 갖춘 사람이 드물다”라고 설명했다.

기술 역량을 갖춘 인재에게 시장은 언제나 매력적인 조건을 내세운다. 특히 민간 기업은 채용의 유연성과 다양한 경력 경로를 제공할 수 있어 공공 기관보다 인재 유치가 훨씬 쉽다.

콜라산티는 “공공 부문은 민간 기업이 수익성이 낮다고 판단해 투자하지 않는 주제를 연구하고, 탐구하고, 깊이 파고들 기회를 제공한다. 공공 기관은 공동체의 이익을 목표로 하고, 장기적인 투자를 감당할 수 있는 구조를 갖고 있다”라고 말했다.

인재 유지의 핵심인 ‘교육’

세고스의 글로벌 지표에 따르면, CIO는 IT 수요를 충족하기 위해 새로운 인재 채용과 기존 팀의 교육을 우선순위로 두고 있다. 이때 재교육과 역량 강화는 인재 확보와 유지 과정에서 발생하는 여러 문제를 극복하는 데 효과적일 수 있다.

세고스 이탈리아의 비즈니스 트랜스포메이션 및 실행 책임자 에마누엘라 피냐타로는 “시장이 매우 경쟁적이기 때문에, 인재를 유지하려면 이직을 막을 방법이 필요하다”라고 말했다. 그는 “기업이 충분한 보상과 함께 자극적이고 보람 있는 환경을 조성하면, 구성원 역시 다른 기회를 찾는 대신 현재 업무에 집중할 수 있다. 많은 직원이 감당하기 어려운 업무를 과도하게 떠안고 있다고 느끼는데, 이들이 특히 가치가 높은데도 불구하고 지원이 부족한 경우가 많다. 따라서 회사가 이들을 지원할 신규 인력을 채용하거나 교육에 투자하면 심리적 안정감을 조성하고 충성도를 높일 수 있다”라고 분석했다.

실제로 콜라산티는 조직의 균형 있는 운영과 관리 역량을 뒷받침하는 ‘지속적 학습’을 무엇보다 중요하게 여긴다. IT 교육 예산은 충분하지 않지만, 구성원이 제기한 요구를 충족할 현실적 대안은 일부 마련돼 있다.

다만 콜라산티는 “이런 경우에는 확고한 의지가 필요하다. 기관이 투입한 비용이 있는 만큼 교육은 결과를 내야 한다. 사이버보안처럼 변화가 빠른 영역은 더 큰 투자도 요구된다”라고 설명했다.

리더십의 필요성

CIO는 구성원을 제대로 지원하고, 권한을 부여하며, 동기를 높이는 업무를 명확히 부여해야 한다는 점을 중요하게 여기고 있다. 또한 복지 제도를 마련하기 위해 HR 부서와 긴밀히 협력하는 것도 필수 요소로 꼽힌다.

Gi그룹 조사에 따르면, 이탈리아 IT 구직자가 채용 기업을 선택할 때 우선순위로 고려하는 요소는 급여, 하이브리드 근무 형태, 일과 생활의 균형, 과도한 스트레스가 없는 직무, 경력 개발 및 성장 기회 순이었다.

다만 인재 관리라는 과제를 해결하기 위해서는 또 다른 요소가 필요하다. CIO 스스로 자신의 리더십 역할을 더 명확히 자각해야 한다는 점이다. 현재 이탈리아 IT 책임자들은 리더십 관련 요소를 핵심 역량 중 가장 낮은 순위에 두고 있다. 세고스 조사에서는 기술 전문성, 전략적 비전, 혁신 역량이 최우선으로 꼽힌 반면, 리더십은 한참 뒤로 밀렸다. 하지만 CIO의 리더십은 조직 운영의 근간이어야 한다. 이는 특정 결정에 의견 차이가 있을 때에도 변함없이 중요한 역할을 한다.

콜라산티는 “리더로서 업무 공간에서의 존재감을 중요하게 생각한다”라고 말했다. 그는 “이스타트는 오래전부터 재택 근무와 스마트 업무를 제도화해 누구나 필요하면 이용할 수 있다. 개인적으로는 사무실에서 일하는 것을 선호하지만, 사생활과 업무의 밸런스를 존중하며 유연 근무에 반대하지 않는다. 다만 나는 매일 현장에 나온다. 동료들도 내가 이곳에 있다는 사실을 알고 있다”라고 전했다.
dl-ciokorea@foundryco.com

한국-Arm, 반도체·AI 인재 1,400명 양성 MOU 체결

이번 MOU는 같은 날 이재명 대통령이 소프트뱅크 손정의 회장, Arm의 르네 하스 CEO와 면담한 것을 계기로 추진된 것으로, 한국과 소프트뱅크·Arm 간 협력 확대 가능성을 논의한 데 따른 것이다.

협약에는 ▲산업 맞춤형 인재 1,400명 양성 ▲기술 교류 및 생태계 강화 ▲대학 간 연계 확대 ▲R&D 협력 등이 포함됐다. 산업부와 Arm은 후속 논의를 위한 실무협의체를 구성해 세부 추진 방안을 마련할 계획이다.

특히 산업부는 Arm과 함께 ‘Arm 스쿨(Arm School, 가칭)’을 설립해 2026년부터 2030년까지 약 1,400명의 IP 설계 전문 인력을 양성한다는 구상이다. Arm은 애플·구글·MS 등 글로벌 빅테크 및 삼성·엔비디아·퀄컴 등 주요 반도체 기업이 활용하는 핵심 설계 플랫폼으로, 정부는 이번 협력이 국내 시스템 반도체 경쟁력 강화에 기여할 것으로 기대하고 있다.

공식 입장문에 따르면 산업부는 반도체 특성화 대학원 지정을 포함한 관련 절차를 차질 없이 추진할 계획이며, 광주과학기술원을 우선 검토 대상에 두고 있다.

김정관 산업부 장관은 “이번 양해각서를 통해 AI 반도체 산업을 이끌 핵심 인력 양성 기반을 마련했다”며 “AI 시대에 대비해 글로벌 기업들과의 협력을 지속 확대하겠다”라고 말했다.

한편, Arm의 지분 약 90%를 보유한 일본 소프트뱅크의 손정의 회장은 이번 협약을 위한 접견에서 “앞으로 모든 국가와 기업들은 ASI 시대를 준비하여야 하고, 국민들에게 보편적 접근권을 보장할 수 있도록 역량을 집중해야 한다”라며 “ASI를 구현하기 위해서는 에너지, 반도체, 데이터, 교육의 네 가지 자원이 필수적”이라고 강조했다.

손 회장은 또한 한국의 상황을 고려할 때, ASI 구축을 위해서는 데이터센터의 대폭적인 증설이 필요하며, 이를 안정적으로 뒷받침할 수 있는 에너지 확보에 더욱 힘써야 한다고 조언했다.
jihyun.lee@foundryco.com

일문일답 | 미쓰비시 머티리얼 CIO가 말하는 ‘CIO의 역할과 매력’

Q: 엔지니어로서의 경력을 시작한 초기 시절과, 이후 커리어의 방향을 바꾸게 된 계기는 무엇인가?
A: 1989년 나는 미쓰비시가세이(현 미쓰비시케미컬)에 생산기술 엔지니어로 신입 입사했다. 배치된 곳은 오카야마현 구라시키시의 미즈시마 사업소로, 대규모 석유·화학 산업단지에서 필드 엔지니어링 업무를 맡으며 커리어의 첫걸음을 내디뎠다.

전환점은 1996년에 찾아왔다. 미국 동부의 보스턴과 서부 샌프란시스코에 신규 거점을 설립한다는 계획이 추진되면서, 미 서부 거점의 초기 멤버로 선발돼 실리콘밸리에 주재하게 됐다. 당시에는 윈도우 95의 등장, 인터넷의 대중화, e비즈니스가 막 태동하던 시기였다. 미국 전체 투자금의 약 3분의 1이 모인다는, 세계 최전선의 기술과 자본이 집결한 현장에 몸을 두게 된 것이다.

3년간의 주재를 마치고 미즈시마로 복귀해 다시 생산기술 업무를 맡았지만, 마음 속에는 ‘돌아가기 어려운 세계를 보아버렸다’는 감각이 자리 잡았다. 실리콘밸리에서 경험한 속도감, 혁신, 미래를 향한 도전정신을 알고 난 뒤에는 이전의 일상으로 복귀할 수 없었다.

결국 저는 스스로 지원해 정보시스템 부문으로 부서를 옮기기로 했다. 이후 DX를 포함한 다양한 프로젝트를 담당하며 기술과 경영을 잇는 역할을 하게 됐다. 그리고 2021년, 미쓰비시 머티리얼의 CIO로 자리를 옮겼고, 지금은 기업의 디지털 전략을 이끄는 위치에서 미래를 향한 도전을 이어가고 있다.

Q: ERP 프로젝트를 세 번이나 추진했다고 들었다. 어떤 점이 가장 어려웠나?
A: 나의 경력에서 가장 큰 도전은 단연 ERP 도입 프로젝트였다. 지금까지 총 세 번, 중단 위기에 빠진 ERP 프로젝트를 다시 살려낸 경험이 있다. 각각의 프로젝트는 전임자가 난항에 빠져 사실상 멈춰선 상태에서 제가 투입돼, 전체 구조를 정비하고 다시 궤도에 올려 완성까지 이끌어야 하는 상황이었다. 금액도 규모도 방대해, CIO로서의 사고방식과 행동 원칙을 형성한 매우 중요한 경험이었다.

내 경력에서 독특한 점이 있다면, 생산기술에서 IT로 커리어를 전환한 점, 그리고 실리콘밸리 한가운데서 일한 경험에서 비롯된 것이라 생각한다. 귀국 후에는 기업 내부 업무에 그치지 않고 다양한 업계에서 경험을 쌓았다. 예를 들어 석유화학공업협회에서의 IT 관련 활동, 기업 간 거래의 전자화(EDI) 추진, 국내외 대형 동종 기업 22개사가 참여한 글로벌 화학제품 이커머스 플랫폼 구축 등 업계 전체를 아우르는 프로젝트에도 관여했다.

‘현장과 본사’, ‘국내와 해외’, ‘업무와 IT’ 같이 경계를 넘나들며 일해온 경험은 현재 CIO로서의 시야와 판단력으로 이어지고 있다.

제가 중요하게 여기는 것은 ‘눈앞의 일에 집중해 최선을 다하는 것’이다. 지나치게 구체적인 목표를 세우면 오히려 장기적 가능성을 좁힌다고 생각하기 때문에, 의도적으로 명확한 목표를 정해두지 않고 지금 이 순간에 몰입하는 태도를 유지하고 있다.

ERP처럼 대규모 프로젝트에서는 예상치 못한 문제와 난관이 끊임없이 발생한다. 그 속에서도 ‘도망치지 않는다’, ‘끝까지 책임을 다한다’는 자세를 일관되게 지켜왔다. 경험을 쌓고, 스스로 사고하고, 자신의 기준을 바탕으로 전략을 세우는 것. 이 부분이 나의 리더십의 근간이다.

그리고 무엇보다 중요한 깨달음은 이것이다. ‘해외를 알아야 일본을 이해할 수 있고, 타사를 알아야 자사를 볼 수 있으며, 사람을 이해해야 비로소 자신을 이해할 수 있다.’ 이 통찰이 제게는 가장 큰 자산이며, CIO로서 앞으로 나아가는 원동력이 되고 있다.

Q: 새로운 환경에서 CIO로 일하면서 느낀 깨달음은 무엇이었나?
57세에 선택한 이직은 결코 빠른 결정이라고 할 수 없었다. 그러나 막상 새로운 환경에 들어서고 보니, 그전까지 보이지 않았던 것들이 선명하게 보이기 시작했다. 그중에서도 특히 강하게 남은 것은 IT 전략을 이해하는 데 핵심이 되는 두 가지 키워드, ‘거버넌스’와 ‘시너지’였다.

이전 직장에서는 여러 상장 자회사를 포함한 대규모 그룹 전체의 정보시스템을 통합적으로 관리하는 미션을 맡았다. 독립성이 강한 각 회사를 한 방향 아래 모으기 위해서는 단순히 규정을 강요하거나 지침을 내려보내는 방식만으로는 충분하지 않았다. 각 정책이나 방침이 현장에 어떤 이익을 주는지, 왜 필요한지 설득력 있게 설명하는 과정이 필요했다.

거버넌스의 기반 위에서 시너지가 생기고, 구성원 한 사람 한 사람이 납득해 스스로 움직이기 시작하는 구조를 만드는 것. 저는 그 구조 설계야말로 지속 가능한 IT 전략의 본질이라는 점을 새롭게 깨달았다.

DX를 추진하는 과정에서도 같은 교훈을 얻었다. 톱다운 방식은 전사적 변화를 일으킬 수 있는 강한 추진력이 있지만, 바텀업은 현장의 젊은 인재가 과제를 스스로의 일로 받아들이고 도전하면서 성장의 기회를 만들어낸다. 이 두 축이 서로 맞물릴 때, DX는 비로소 조직 전체로 확산되고 실질적인 변화로 이어진다.

Q: 리더십에서 가장 중요하다고 느끼는 요소는 무엇인가?
37년에 걸친 비즈니스 경력 속에서 제가 가장 깊이 느낀 것은 ‘사람을 어떻게 움직이게 할 것인가’라는 과제의 중요성이다. 프로젝트, 부하 직원, 동료, 이해관계자, 그리고 상사까지 모든 관계 속에서 가장 어렵고 동시에 가장 큰 가치를 가진 도전은 결국 ‘경영을 어떻게 움직일 것인가’라는 점이었다.

이를 위해서는 먼저, 자신이 무엇을 하고 싶은지, 무엇을 전달하고 싶은지에 대한 확고한 축을 가져야 한다. 그 축이 흔들리면 사람들은 따라오지 않는다. 더불어 그 축을 명확한 언어로 표현하는 능력도 필요하다. 말로 형태를 갖추지 않으면 생각과 의지는 결코 전달되지 않는다.

말이 전달되기 위해서는 신뢰가 전제되어야 한다. 신뢰가 형성되면 상대는 공감하고, 공감은 행동의 변화를 이끈다. 이 일련의 과정 즉 축을 세우고, 언어로 정리하고, 신뢰를 쌓고, 공감을 얻어, 행동을 유도하는 과정을 얼마나 아름답게 순환시키느냐가 리더에게 주어진 가장 큰 과제라고 느끼고 있다.

그 기반에는 ‘자기를 아는 것’이 있다. 물론 자신을 안다는 것은 철학적이며 결코 쉬운 일이 아니다. 하지만 ‘해외를 알면 일본이 보이고, 일본을 알면 자사가 보이며, 자사를 알면 자신이 보인다’는 순환적 깨달음이 리더로서의 시야를 한층 넓혀준다.

Q: CIO가 경영자가 될 수 있을까?
지금 CIO로서의 역할을 돌아보면, 두 가지 유형이 있다고 느낀다. 하나는 ‘정보시스템을 총괄하는 CIO’, 그리고 다른 하나는 ‘경영의 한 축을 담당하는 CIO’다.

나는 지금까지 후자를 목표로 해 왔다. IT 전문성에만 머무르지 않고, 바깥세상을 이해하고, 업계를 넘나들며, 현장과 경영을 잇는 시각이 CIO의 가능성을 넓혀 준다고 믿고 있다.

그래서 내가 중요하게 생각하는 것이 바로 인문학 즉 인류가 축적해 온 지혜다.

새로운 것은 무(無)에서 갑자기 생겨나는 게 아니라, 여러 지혜가 결합되며 창발하는 것이다. 생성형 AI가 등장하면서, 우리는 그 어느 때보다 창조적인 가치를 만들어낼 기회를 갖게 됐다.

정보시스템 부서 여러분도 이런 관점을 꼭 가져 보길 바란다. 때로는 전문 영역을 넘어서 다른 분야로 건너가 보고, 현장에 다가가고, 경영과 대화해 보는 경험들이 쌓일 때, CIO로서의 새로운 가능성이 열릴 거라고 확신한다.

또한 일본 IT 산업에는 구조적 특징이 있다. 시스템 엔지니어의 약 70%가 외부 파트너 소속이라는 현실이다. 내재화의 필요성이 강조되지만 한계도 뚜렷하다. 그래서 벤더나 컨설턴트를 단순한 공급자가 아니라 함께 싸우는 ‘전우’로 인식하고 협력 관계를 구축해야 한다고 생각한다.

고객사가 일방적으로 지시하는 관계를 넘어서, 서로 배우고 지혜를 모으는 파트너십을 만드는 것. 이러한 관계가 앞으로의 IT·DX 분야에서 진정한 가치 창출을 이끌 핵심이라고 믿고 있다.

Q: CIO로서 중요하게 여기는 철학이나 가치관은 무엇인가?
개인적으로 중요하게 여기는 두 가지 키워드가 있다. 21세기를 살아가는 인류가 반드시 소중히 해야 한다고 생각하는 가치, 바로 ‘어웨어니스(깨달음·의식)’와 ‘컴패션(이타성·배려)’이다. 이 두 가지는 제가 미쓰비시 머티리얼의 CIO로 부임했을 때부터, 회사가 기대하는 역할과 일본 제조업 전체를 더 강하게 만들고자 하는 제 개인적 소망 모두에서 중심축이 되어왔다.

미쓰비시 머티리얼은 ‘미쓰비시 머티리얼 그룹 IT Way’라는 원칙을 수립하고, 이를 기반으로 다양한 IT 전략을 추진하고 있다. 지금 생성형 AI는 피할 수 없는 핵심 주제로 떠올랐고, 중요한 것은 AI가 무엇을 만드는가가 아니라 ‘사람이 생성형 AI를 활용해 어떤 가치를 만들어내는가’에 있다. 생성형 AI는 어디까지나 IT 도구의 하나이고, 주체는 인간이다. 그래서 저는 언제나 ‘사람 중심’이라는 사고방식을 안팎으로 꾸준히 강조해 왔고, 이 철학을 기반으로 여러 정책을 펼쳐왔다.

일본 제조업이 강해지기 위해서는 기업 간의 경계를 넘어서는 연대와 대화가 필수적이다. 저는 이직 전을 포함한 약 5년 동안 70여 개 기업, 6,000명 이상의 관계자들과 스터디, 강연 등을 통해 지속적으로 의견을 나누어 왔다. 그 과정에서 제 생각에 공감해주는 사람들을 많이 만났고, 그분들과의 교류 속에서 저 자신도 성장하고 있음을 실감하고 있다. 이러한 지적 축적이 새로운 정책과 시도를 만들어내는 중요한 원동력이 된다고 믿는다.

내가 무엇보다도 전달하고 싶은 메시지는 단순하다. 바로 ‘모든 기술은 사람을 행복하게 하는 방향을 지향해야 한다’이다. 100년, 200년 후 우리의 후손이 돌아봤을 때, ‘그 시대를 기점으로 무언가가 바뀌었다’고 말할 수 있다면, 그것은 인터넷과 같은 커다란 혁신일 것이며, 지금 진행 중인 생성형 AI 역시 그 변곡점 중 하나다.

그리고 우리가 지금 반드시 도전해야 할 또 하나의 과제는 미래 세대가 “지구 환경을 지키면서도 비즈니스를 할 수 있게 되었다”고 말할 수 있는 시대를 만드는 것이다. 미쓰비시 머티리얼은 자원순환을 핵심으로 삼는 기업으로, 이러한 미래상을 실현하는 데 중요한 역할을 맡고 있다. 비즈니스 세계에서는 종종 ‘달콤한 이야기만 해서는 안 된다’고 하지만, 지구 환경을 지키는 문제에서는 이타성과 배려가 반드시 필요하다고 생각한다. 이는 인류 전체가 더 깊이 인식해야 할 가치다.

CIO는 대개 특정 전문 분야에 강점을 지닌 경우가 많고, 경영진과 동등한 수준에서 논의할 수 있는 능력이 요구된다. 그러나 IT만 알고 있어서는 충분하지 않다. 해외의 시각, 업계의 흐름, 그리고 인문학 리같은 비(非) IT 영역에 대한 관심이 반드시 필요하다. 기업과 산업마다 과제는 다르지만, IT만 생각해서는 본질적인 문제 해결에 도달할 수 없다. 그렇기 때문에 각자의 전문성을 살리면서도 복합적 시각으로 접근하는 태도가 앞으로의 CIO에게 요구되는 자세라고 믿고 있다.

*이 기사는 CIO 재팬에서 진행된 ‘리더십 라이브 재팬’의 내용을 바탕으로 일부 각색하여 구성한 것입니다.
dl-ciokorea@foundryco.com

MS, M365 구독 요금 인상 예고···분석가들 “대안 모색 및 재협상 필요”

M365 고객은 2026년 7월 1일부터 더 높은 구독 요금을 부담하게 될 전망이다. 비즈니스용을 비롯해 E3·E5, 프론트라인, 정부용 구독 등 대부분의 요금제가 영향을 받는다.

MS는 지난 4일 블로그를 통해 여러 요금제에 새 기능이 추가되면서 인상이 이뤄졌다고 밝혔다. 여기에는 확장된 코파일럿 챗 기능과 E3에 포함되는 MS 디펜더 포 오피스(Microsoft Defender for Office), E5에 적용되는 시큐리티 코파일럿, 그리고 E3·E5를 대상으로 한 인튠(Intune)의 원격 지원 및 고급 분석 기능 등이 있다.

새로운 구독 요금은 다음과 같다.

  • M365 비즈니스 베이직은 월 사용자당 1달러 올라 7달러가 된다.
  • M365 비즈니스 스탠다드는 1.5달러 인상돼 월 14달러가 된다.
  • 오피스 365 E3는 월 3달러 인상돼 26달러가 된다.
  • M365 E3는 3달러 올라 39달러가 된다.
  • M365 E5는 3달러 인상돼 월 60달러로 조정된다.
  • M365 F1은 0.75달러 올라 3달러가 된다.
  • M365 F3는 2달러 인상돼 월 10달러가 된다.

이 가운데 M365 비즈니스 프리미엄은 월 사용자당 22달러, 오피스 365 E1은 10달러로 기존 가격을 유지한다. 정부용 M365 요금제는 플랜에 따라 5%에서 10% 수준의 인상이 적용된다. 모든 요금에는 협업 앱인 팀즈(Teams)가 포함돼 있으며, 팀즈를 제외할 경우 더 낮은 요금이 책정된다.

가트너 애널리스트 잭 네이글과 스티븐 화이트는 이번 조치에 대해 “최근 이어지는 가격 정책 변화는 고객의 우려와 피로감을 더욱 심화시킬 것”이라고 지적했다.

MS는 2022년에도 M365 가격을 9%에서 25% 범위로 인상한 바 있다. 최근에는 M365 등 주요 제품의 엔터프라이즈 계약(EA) 조건을 변경해, 대규모 고객에게 제공되던 사용자 수 기반 할인 정책을 단계적으로 폐지했다.

가트너 애널리스트들은 기업이 이번 인상에 따른 재무적 부담을 줄이려면 “협상 전략을 적극 활용하고, 대안을 검토하며, 라이선스 할당을 최적화해야 한다”라고 조언했다.

또한 가능하다면 7월 1일 가격 변경 이전에 계약을 조기 갱신하는 방안을 고려할 것을 제안했다. 이렇게 하면 요금 인상을 다음 갱신 시점까지 늦출 수 있기 때문이다.

가트너가 최근 IT 리더 215명을 대상으로 진행한 조사에 따르면, M365 고객의 17%는 대안 솔루션을 검토 중이며, 구독 비용에 충분한 가치를 느낀다고 답한 비율은 5%에 불과했다.

MS는 올해 초 실적 발표에서 전 세계 상업용 M365 사용자가 4억 3천만 명을 넘어섰다고 밝혔다.

J. 골드 어소시에이츠의 애널리스트 잭 골드는 MS가 이전부터 주기적으로 가격을 인상해 왔다고 언급하며, “AI 기능을 운영하기 위해 상당한 추가 연산이 필요해진 만큼, 이를 지원하는 대규모 클라우드 인프라 운영 비용을 회수하려는 시도는 이해할 만하다”라고 설명했다.

골드는 이번 가격 인상이 고객 수에 큰 영향을 미치지는 않을 것으로 내다봤다. 그는 “대부분의 고객이 이미 MS 생태계에 깊이 묶여 있어 결국 이번 조정도 받아들이게 될 것”이라며 “요즘 구글과의 가격 경쟁이 치열하긴 하지만, 엔터프라이즈 시장에서 MS에서 구글 오피스로 대거 이동하는 흐름은 보이지 않는다. 다만 중소기업 및 중기업에서는 구글의 성장세가 뚜렷하다”라고 진단했다.
dl-ciokorea@foundryco.com

롯데이노베이트, 안드로이드 기반 POS 개발···편의점에 첫 도입

롯데이노베이트는 기존 국내 편의점에서 주로 사용하는 윈도우 기반 대신 안드로이드 운영체제를 바탕으로 판매시점 정보관리 기기(POS)를 개발했다. 스마트폰이나 태블릿 PC를 다루는 것처럼 친숙하고 편리한 환경을 제공해 경영주들의 접근성을 강화했다는 설명이다. 또한 안드로이드 운영체제의 개방성을 활용해 POS 기능 외에도 다양한 업무용 앱을 손쉽게 사용할 수 있도록 설계돼 점포 운영의 유연성과 확장성을 높였다.

클라우드 기반으로 운영되는 안드로이드 POS 시스템은 데이터 보안성이 뛰어나고 시스템 업데이트와 유지보수도 용이하다. 롯데이노베이트는 경영주들의 실제 사용 경험을 바탕으로 설계돼 매장 운영에 실질적인 도움을 줄 수 있다고 설명했다. 해당 시스템은 기존 무거운 POS와 비교해 태블릿 PC형태로 더욱 가볍고 이동이 자유로워졌으며, 자주 사용하는 메뉴를 직접 설정할 수 있는 ‘나만의 메뉴’, 야간에 눈의 피로를 줄여주는 ‘다크 모드’등 사용자를 배려한 기능도 적용됐다.

롯데이노베이트는 올해부터 세븐일레븐과 협력하여 신규 점포를 중심으로 안드로이드 기반 클라우드 POS를 도입하고, 향후 전국 모든 세븐일레븐 점포로 확대 적용할 계획이다.

롯데이노베이트 관계자는 “이번 안드로이드 클라우드 POS 개발은 새로운 시스템 도입을 넘어, 편의점 업계에 스마트 운영의 새로운 표준을 제시하는 이정표가 될 것”이라며 “앞으로 AI 기반 고객 맞춤형 광고 등 지속적인 기술 혁신을 통해 경영주와 고객 모두에게 더 나은 편의점 경험을 제공하고, 효율적인 매장 운영을 지원할 것”이라고 말했다.
dl-ciokorea@foundryco.com

“PMO에서 BTO로” AI가 여는 프로젝트 관리의 대전환

CIO 입장에서 AI를 둘러싼 논의는 혁신에서 오케스트레이션 단계로 발전했다. 오랫동안 인간의 조율과 통제 영역이었던 프로젝트 관리는 지능형 시스템이 프로젝트 진행 및 성과를 어떻게 재편하고 변혁을 가속하는지 시험하는 무대로 빠르게 부상하고 있다.

산업군을 막론하고 모든 기업 CIO는 AI의 약속을 운영 측면에서 수치화해야 한다는 과제를 안고 있다. 프로젝트 기간 단축, 간접비 감소, 포트폴리오 투명성 제고 같은 지표로 어떻게 설명할 것인가 하는 문제다. 조지아 공과대학교가 2025년에 프로젝트 관리 전문가와 C 레벨 기술 리더 217명을 대상으로 진행한 연구에 따르면, 조사 대상 기업의 73%가 어떤 형태로든 프로젝트 관리 영역에 AI를 도입했다고 응답했다.

하지만 이런 열기 속에서도 AI가 프로젝트 매니저(PM)의 역할을 어떻게 재정의할 것인지, 향후 비즈니스 혁신 프로그램의 프레임워크를 어떻게 규정할 것인지에 대한 질문은 여전히 남아 있다.

역할은 바뀌지만 PM의 중요성은 그대로

이미 여러 산업에서 프로젝트 전문가는 변화를 체감하고 있다. 이번 조사에서 AI를 일찍 도입한 기업은 프로젝트 효율성이 최대 30%까지 향상됐다고 보고했지만, 성공 여부는 기술 자체보다 리더십이 AI 활용을 어떻게 통제하느냐에 더 크게 좌우됐다. 응답자의 압도적 다수는 AI가 효율성, 예측 기반 계획, 의사결정 개선에 매우 효과적이었다고 평가했다. 그렇다면 프로젝트를 실제로 운영하는 실무자에게 이 변화는 무엇을 의미할까?

응답자의 약 1/3은 AI 덕분에 PM이 일상적인 일정·업무 조정에서 벗어나 장기적인 성과를 이끄는 전략적 총괄 역할에 더 집중할 수 있을 것이라고 예상했다. 또 다른 1/3은 PM이 팀 전반에서 AI 인사이트를 해석해 통합하는 촉진자 역할을 수행하며 협업을 강화하는 방향으로 진화할 것이라고 내다봤다. 나머지 응답자는 PM이 알고리즘의 윤리성, 정확도, 비즈니스 목표 정렬 여부를 관리·감독하는 AI 시스템 감독자로 변모할 것이라고 전망했다.

이런 시각은 하나의 결론으로 모인다. AI가 PM을 대체하지는 않지만, PM의 가치를 재정의할 것이라는 점이다. 앞으로 등장할 PM은 업무 목록만 관리하는 사람이 아니라 지능을 관리하고, AI 기반 인사이트를 비즈니스 성과로 번역하는 역할을 수행하게 된다.

PMO가 서둘러야 하는 이유

PMO(Project Management Office)에게 과제는 더 이상 AI를 도입할지 여부가 아니라 어떻게 도입할지이다. 대기업이라면 대부분 일정 예측, 자동 리스크 보고, 문서 작성을 위한 생성형 AI 등 다양한 영역에서 이미 실험을 진행하고 있어 AI 채택 속도는 빨라지고 있다. 하지만 실제 통합 수준은 기업마다 들쭉날쭉하다.

여전히 많은 PMO가 AI를 전략 역량이 아닌 도구 모음 수준의 부가 기능 정도로 취급한다. 하지만 AI의 핵심은 판단 증강과 자동화에 있다. 진정한 경쟁우위를 확보하는 기업은 AI를 프로젝트 방법론, 거버넌스 프레임워크, 성과 지표에 깊이 내재화하고, 다음 다섯 가지 접근법을 염두에 두고 움직인다.

1. 파일럿 프로젝트부터 시작하라

작게 시작해 빠르게 확장하라. 가장 성공적인 AI 통합은 프로젝트 상태 보고 자동화, 일정 지연 예측, 자원 병목 식별 같은 명확한 사용례를 겨냥한 소규모 시범 적용에서 출발한다. 이런 파일럿 프로젝트는 눈에 보이는 성과를 만들고 조직 내 기대감을 높이며, 통합 과정에서 발생하는 기술과 프로세스 문제를 초기 단계에 드러내 준다.

2. 활동량이 아니라 가치를 측정하라

AI를 도입하면서도 명확한 성과 지표 없이 추진하는 실수가 자주 발생한다. PMO는 수동 보고 시간 감소, 리스크 예측 정확도 향상, 프로젝트 사이클 단축, 이해관계자 만족도 제고 같은 구체적인 KPI를 설정해야 한다. 이런 결과를 조직 전체에 공유하는 일도 성과 못지않게 중요하다. 성공 사례를 적극적으로 알리면 모멘텀을 키우고 동의를 이끌어 내고, AI에 회의적인 팀의 인식을 바꾸는 데 도움이 된다.

3. PM 역량을 업그레이드하라

AI의 가치는 결국 그것을 활용하는 사람의 역량에 달려 있다. 설문에 응답한 전문가의 거의 절반은 숙련 인력 부족을 AI 통합의 주요 장벽으로 꼽았다. 프로젝트 매니저가 데이터 과학자가 될 필요는 없지만, AI의 기본 개념, 알고리즘이 작동하는 방식, 편향이 발생하는 지점, 데이터 품질의 의미 정도는 이해해야 한다. 앞으로 가장 영향력이 큰 PM은 데이터 리터러시와 함께 비판적 사고, 감정 지능, 커뮤니케이션 같은 인간 중심 리더십을 겸비한 인재가 될 것이다.

4. 거버넌스와 윤리를 강화하라

AI 활용이 늘어날수록 알고리즘이 프로젝트 의사결정에 영향을 미칠 때 윤리적 문제가 대두된다. PMO는 투명성, 공정성, 인간의 최종 감독을 강조하는 AI 거버넌스 프레임워크를 수립하는 데 앞장서야 한다. 이런 원칙을 PMO의 헌장과 프로세스에 녹여두면 리스크를 줄이는 데 그치지 않고 프로젝트 이해관계자 사이에 신뢰를 쌓는 기반을 마련할 수 있다.

5. PMO에서 BTO로 진화하라

전통적인 PMO는 범위, 일정, 비용 관점에서 프로젝트 실행에 초점을 맞춘다. 하지만 AI를 적극 활용하는 기업은 프로젝트를 비즈니스 가치 창출과 직접 연결하는 BTO(Business Transformation Office)로 진화하는 추세다. PMO가 프로젝트를 ‘제대로’ 수행하는 데 초점을 둔다면, BTO는 ‘올바른’ 프로젝트를 선택해 성과를 내는 데 초점을 둔다. 이 프레임워크의 핵심 요소는 워터폴 방식에서 애자일 마인드셋으로의 전환이다. 프로젝트 관리는 경직된 계획 중심에서 반복적이고 고객 중심이며 협업적인 방식으로 이동했고, 하이브리드 방법론이 점점 일반적인 선택이 되고 있다. 이런 애자일 접근법은 AI와 디지털 혁신이 촉발하는 급격한 변화를 따라가기 위해 필수적인 조건이다.

프로젝트 관리자를 위한 새로운 경력 개발

2030년 무렵이 되면 상태 업데이트, 일정 수립, 리스크 경고처럼 반복적인 프로젝트 업무 상당 부분을 AI가 처리하고, 인간 책임자는 비전, 협업, 윤리에 집중하는 그림이 현실이 될 수 있다. 이런 변화는 애자일 확산과 디지털 트랜스포메이션처럼 과거 프로젝트 관리 혁신 흐름을 닮았지만, 전개 속도는 훨씬 빠르다.

하지만 기업이 점점 더 많은 AI를 도입하면 할수록 인간적 요소를 잃을 위험도 커진다. 프로젝트 관리는 언제나 사람에 관한 일이고, 이해관계를 맞추고 갈등을 해결하며 팀에 동기를 부여하는 과정이다. AI는 일정 지연을 예측할 수는 있지만, 지연을 만회하도록 팀을 격려할 수는 없다. 뉘앙스를 해석하고 신뢰를 구축하며, 협업을 촉진하는 PM의 인간적 능력은 여전히 대체 불가능하다.

이제 행동에 착수해야 할 시간

AI는 기업 프로젝트 진행 및 성과의 첨병이 될 것이다. 앞으로 10년은 PMO와 경영진, 정책 입안자가 이런 진화를 얼마나 잘 관리하는지 시험하는 시간이 될 것이다. 성공하기 위해 기업은 플랫폼만큼 사람에 투자하고, 윤리적이고 투명한 거버넌스를 채택하며, 지속적인 학습과 실험 문화를 조성하고, 과대광고가 아닌 실제 성과로 성공 여부를 판단해야 한다.

CIO에게는 이미 분명한 과제가 주어졌다. 비전으로 이끌고 높은 윤리 기준으로 거버넌스를 수행하며, 지능형 도구로 팀에 힘을 실어줘야 한다. AI는 프로젝트 관리 직무를 위협하는 존재가 아니라 그 역할을 재탄생시키는 촉매제다. 책임 있게 실행할 경우 AI 기반 프로젝트 관리는 운영 효율을 높이는 데 그치지 않고, 변화에 민첩하게 대응하면서도 사람 중심 가치를 유지하는 기업을 만드는 기반이 된다. 이런 변화를 신중하게 수용하면 PM은 단순한 관리자를 넘어 변화의 설계자로 도약할 수 있다.
dl-ciokorea@foundryco.com

“비인간 아이덴티티, 보안 모델의 새로운 핵심 축” 포티넷, 2026 사이버 위협 전망 보고서

포티넷이 자사 위협 인텔리전스 조직인 포티가드 랩스(FortiGuard Labs)를 통해 ‘2026 사이버 위협 전망 보고서(Fortinet Cyberthreat Predictions Report for 2026)’를 공개했다. 보고서는 사이버 범죄가 AI와 자동화, 전문화된 공급망을 기반으로 빠르게 산업화하고 있으며, 2026년에는 혁신 자체보다 위협 인텔리전스를 얼마나 빠르게 실행할 수 있는지, 즉 처리 속도가 공격과 방어의 성패를 좌우하는 핵심 기준이 될 것으로 분석했다.

보고서는 침해 과정이 AI와 자동화 도구로 인해 크게 단축되고 있다고 설명했다. 공격자들은 새로운 도구를 만들기보다 이미 효과가 입증된 공격 기법을 자동화·고도화하는 방식으로 효율을 극대화하고 있다. AI 시스템은 정찰, 침투 가속, 데이터 분석, 협상 메시지 생성까지 공격 과정 전반을 자동화하며, 다크웹에는 최소 개입만으로 일련의 공격 절차를 수행하는 자율형 범죄 에이전트까지 등장하고 있다.

이로 인해 공격 처리량은 기하급수적으로 증가하는 양상을 보인다. 과거 몇 건의 랜섬웨어만 운영하던 범죄자가 이제는 수십 건의 병렬 공격을 실행할 수 있게 됐으며, 침해 발생부터 실제 피해까지 걸리는 시간도 며칠에서 몇 분 단위로 축소되고 있다. 보고서는 이 같은 공격 속도 그 자체가 2026년 기업이 직면할 가장 큰 위험 요소가 될 것이라고 분석했다.

보고서에 따르면, 자격 증명 탈취, 횡적 이동, 데이터 수익화 등 공격 체인의 핵심 단계를 자동화하는 전문 AI 에이전트도 두드러지고 있다. 이런 시스템은 탈취한 데이터를 분석하고, 피해자 우선순위를 산정하며, 개인화된 협박 메시지를 생성해 데이터가 디지털 자산처럼 빠르게 금전화되는 환경을 만들어낸다.

지하 범죄 시장 역시 더욱 구조화되는 흐름을 보이고 있다. 산업·지역·시스템 환경에 맞춘 맞춤형 접근 권한 패키지가 유통되고 데이터 보강과 자동화를 통해 거래 정교화가 이뤄지고 있으며, 고객지원·평판 점수·자동 에스크로 등 합법 산업에서 볼 수 있는 요소가 도입되면서 사이버 범죄의 산업화가 한층 가속화되고 있다.

이 같은 공격 고도화 속에서 포티넷은 기업이 ‘머신 속도 방어(machine-speed defense)’ 체계를 갖추는 것이 필수적이라고 강조했다. 머신 속도 방어는 위협 인텔리전스 수집·검증·격리 과정을 연속적으로 자동화해 탐지와 대응 시간을 시간 단위에서 분 단위로 압축하는 운영 모델이다. 이를 위해 CTEM(지속적 위협 노출 관리), MITRE ATT&CK 프레임워크 기반 위협 매핑, 실시간 복구 우선순위화 등 데이터 기반의 연속 운영 체계가 요구된다.

또한 조직 내부에서 AI 시스템·자동화 에이전트·머신 간 통신이 폭발적으로 증가함에 따라 ‘비인간 아이덴티티(Non-Human Identity)’ 관리가 보안 운영의 새로운 핵심 축으로 자리 잡고 있다. 사람뿐 아니라 자동화된 프로세스와 기계 간 상호작용까지 인증·통제해야 대규모 권한 상승 및 데이터 노출을 방지할 수 있다는 의미다.

포티넷은 국제 공조 역시 필수 요소라고 설명했다. 인터폴의 세렝게티 2.0(Operation Serengeti 2.0)과 포티넷–크라임스톱퍼스(Fortinet–Crime Stoppers) 국제 사이버 범죄 현상금 프로그램은 범죄 인프라를 실제로 무력화하고 위협 신고 체계를 강화한 대표적인 사례다. 뿐만 아니라 청소년·취약 계층을 보호하기 위한 교육·예방 활동 확대도 장기적 관점에서 중요하다.

사이버 범죄 규모는 2027년이면 합법 산업에 버금갈 것으로 전망된다. 공격자는 다수의 AI 에이전트가 군집처럼 협력하는 스웜(swarm) 기반 자동화를 활용해 방어자 행동에 적응하며 공격을 전개할 것으로 보이며, AI·임베디드 시스템을 겨냥한 공급망 공격도 더욱 정교해질 전망이다. 이에 대응하기 위해 방어자는 예측 인텔리전스·자동화·노출 관리 역량을 강화해 공격자의 움직임을 보다 빠르게 파악하고 조기 차단할 수 있는 체계로 진화해야 한다.

보고서 집필팀은 “속도와 규모가 앞으로의 10년을 규정할 것”이라고 강조하며, 인텔리전스와 자동화, 보안 인력의 역량을 하나의 반응형 체계로 통합한 기업만이 미래 위협 환경에서 주도권을 확보할 수 있다고 결론지었다.

포티넷은 오는 16일 사이버 범죄 생태계와 앞으로 다가올 트렌드에 대한 인사이트를 공유하는 웨비나를 진행한다. 포티가드 랩의 디렉터인 요나스 워커가 연사로 참여한다.
dl-ciokorea@foundryco.com

LLMエージェントと人間の協調設計──どこまで任せ、どこで介入すべきか

人間の役割を前提にしたエージェント設計

まず大前提として、LLMエージェントは人間の代わりではなく、あくまで協働パートナーとして設計されるべきです。人間の強みは、価値判断や責任の負担、組織や個人の文脈を踏まえた意思決定にあります。逆にエージェントの強みは、情報の探索と整理、繰り返し作業の高速処理、多数の選択肢の検討といった部分です。どちらか一方に全面的に寄せるのではなく、長所の組み合わせを意識することが重要です。

そのためには、まず対象となる業務を分解し、「判断が重いステップ」と「事務的なステップ」を見極める必要があります。たとえば、顧客クレームへの対応であれば、事実関係の整理や過去ケースの検索、文面のドラフト作成などはエージェントに任せやすい領域です。一方で、無償対応の範囲をどこまで認めるか、今後の関係性への影響をどう考えるかといった判断は、人間に残すべき領域になります。

エージェント設計では、こうした業務分解の結果を踏まえ、「エージェントが自律的に完結してよい範囲」「必ず人間の承認を要する範囲」「人間の判断のために情報整理だけ行う範囲」という三つのゾーンを明確に定義します。そのうえで、各ゾーンごとにエージェントの権限とインターフェースを調整することで、協調の前提が整っていきます。

介入ポイントと「ハンドル」のデザイン

人間とエージェントの協調をうまく機能させるには、人間側から見て「いつでも介入できる」という感覚が重要です。一度エージェントに仕事を渡したら最後、内部で何が起きているか分からず、誤った結果だけが突然返ってくるという状態では、ユーザーは安心して任せることができません。

そこで鍵になるのが、介入ポイントとハンドルのデザインです。介入ポイントとは、ワークフローの中で人間が必ず確認や承認を行うステップのことであり、ハンドルとは人間がエージェントの振る舞いを調整するための操作手段です。具体的には、エージェントが提案したプランを一覧で表示し、ユーザーに「採用」「修正」「却下」を選ばせる画面や、エージェントが作成したドラフトを編集するエディタ、処理を途中で止める停止ボタンなどが該当します。

さらに、エージェントがどのように考えて行動したのかを、ユーザーに分かりやすく提示することも重要です。エージェントの内部で起きている推論プロセスを完全に可視化することは難しいにしても、「まず過去三ヶ月のデータを集計し、その結果をもとに二つの案を比較した」といった簡潔な説明を添えるだけで、ユーザーの安心感は大きく変わります。このような「思考過程の外在化」は、人間の同僚が報告するときの作法に近く、エージェントをチームの一員として扱う感覚を育てます。

信頼を育てるユーザー体験と「手放し運転」の範囲

協調設計のゴールは、ユーザーがエージェントを徐々に信頼し、適切な範囲で「手放し運転」を許容できる状態を作ることです。ここで重要なのは、最初から高い自律性を与えるのではなく、段階的に信頼を積み重ねることです。

初期段階では、エージェントに「提案」や「ドラフト」だけを任せ、最終決定は必ず人間が行う形が望ましいでしょう。このフェーズでは、エージェントの提案がどれだけ有用か、どの程度の頻度で修正が必要かを観察し、ユーザー自身もエージェントとの付き合い方を学んでいきます。この過程で、「この種類の仕事ならば、エージェントに任せても大丈夫そうだ」という感覚が少しずつ育っていきます。

次の段階では、リスクの低い領域から自動実行の範囲を広げていきます。たとえば、内部向けの週次レポートの更新や、定型的なリマインドメールの送信などは、自動化しやすい領域です。一方で、対外的なコミュニケーションや契約関連の処理などは、長く人間のレビューが必要な領域として残るかもしれません。組織として「どのレベルのリスクならエージェントに任せてよいか」という方針を共有し、それに沿って権限設定を行うことが、健全な信頼関係の前提になります。

最終的には、ユーザー体験そのものが、エージェントへの信頼に大きな影響を与えます。誤りが起きたときに、どれだけ素早く原因を特定し、修正できるか。ユーザーが「この結果はおかしい」と感じたとき、ワンクリックで人間の担当者に切り替えられるか。そうした「失敗への備え」が整っているほど、ユーザーは安心してエージェントに仕事を任せることができます。人間とエージェントの協調設計とは、単に役割分担を決めるだけではなく、信頼が徐々に醸成されるユーザー体験の流れ全体をデザインする営みでもあります。

Resops: Turning AI disruption into business momentum

The world has changed — artificial intelligence (AI) is reshaping business faster than most can adapt


The rise of large language models and agentic AI has created unprecedented scale, speed, and complexity. Enterprises are moving from static infrastructures to hyperplexed, distributed, and autonomous systems. Organizations are pouring more than $400 billion into AI infrastructure, a wave expected to generate more than $2 trillion in new value. But without resilience at the core, that value remains at risk.

As innovation accelerates, new risks emerge just as quickly. Security is lagging behind transformation. Data is exploding, with nearly 40% year-over-year growth across hybrid and multicloud environments. Regulations are tightening, and ransomware and AI-powered attacks are multiplying. The result: Resilience now defines competitive advantage.

Resilience drives velocity

Resilience isn’t just recovery. It’s also the foundation of sustained innovation. Traditional recovery models were built for yesterday’s outages, not today’s AI-driven disruptions, which unfold in milliseconds. In this world, recovery is table stakes. True resilience means that every system runs on clean, verifiable data, and it restores trust when it’s tested.

The most resilient organizations are also the fastest movers. They adopt emerging technologies with confidence, recover with speed and integrity, and innovate at scale. Resilience has evolved from a safety net to the engine of enterprise speed and scalability.

Introducing resops, the model for next-generation resilience

Resops, short for resilience operations, is an operating model that unifies data protection, cyber recovery, and governance into a single intelligent system. It creates an ongoing loop that monitors, validates, and protects data across hybrid and multicloud environments, enabling organizations to detect risks early and recover with confidence.

By integrating resilience into every layer of operations, resops transforms it from an isolated function into a proactive discipline — one that keeps businesses secure, compliant, and ready to adapt in the AI era.

To learn more about ResOps, read “ResOps: The future of resilient business in the era of AI.” 


Vertical AI development agents are the future of enterprise integrations

Enterprise Application Integration (EAI) and modern iPaaS platforms have become two of the most strategically important – and resource-constrained – functions inside today’s enterprises. As organizations scale SaaS adoption, modernize core systems, and automate cross-functional workflows, integration teams face mounting pressure to deliver faster while upholding strict architectural, data quality, and governance standards.

AI has entered this environment with the promise of acceleration. But CIOs are discovering a critical truth:

Not all AI is built for the complexity of enterprise integrations – whether in traditional EAI stacks or modern iPaaS environments.

Generic coding assistants such as Cursor or Claude Code can boost individual productivity, but they struggle with the pattern-heavy, compliance-driven reality of integration engineering. What looks impressive in a demo often breaks down under real-world EAI/iPaaS conditions.

This widening gap has led to the rise of a new category: Vertical AI Development Agents – domain-trained agents purpose-built for integration and middleware development. Companies like CurieTech AI are demonstrating that specialized agents deliver not just speed, but materially higher accuracy, higher-quality outputs, and far better governance than general-purpose tools.

For CIOs running mission-critical integration programs, that difference directly affects reliability, delivery velocity, and ROI.

Why EAI and iPaaS integrations are not a “Generic Coding” problem

Integrations—whether built on legacy middleware or modern iPaaS platforms – operate within a rigid architectural framework:

  • multi-step orchestration, sequencing, and idempotency
  • canonical data transformations and enrichment
  • platform-specific connectors and APIs
  • standardized error-handling frameworks
  • auditability and enterprise logging conventions
  • governance and compliance embedded at every step

Generic coding models are not trained on this domain structure. They often produce code that looks correct, yet subtly breaks sequencing rules, omits required error handling, mishandles transformations, or violates enterprise logging and naming standards.

Vertical agents, by contrast, are trained specifically to understand flow logic, mappings, middleware orchestration, and integration patterns – across both EAI and iPaaS architectures. They don’t just generate code – they reason in the same structures architects and ICC teams use to design integrations.

This domain grounding is the critical distinction.

The hidden drag: Context latency, expensive context managers, and prompt fatigue

Teams experimenting with generic AI encounter three consistent frictions:

Context Latency

Generic models cannot retain complex platform context across prompts. Developers must repeatedly restate platform rules, logging standards, retry logic, authentication patterns, and canonical schemas.

Developers become “expensive context managers”

A seemingly simple instruction—“Transform XML to JSON and publish to Kafka”
quickly devolves into a series of corrective prompts:

  • “Use the enterprise logging format.”
  • “Add retries with exponential backoff.”
  • “Fix the transformation rules.”
  • “Apply the standardized error-handling pattern.”

Developers end up managing the model instead of building the solution.

Prompt fatigue

The cycle of re-prompting, patching, and enforcing architectural rules consumes time and erodes confidence in outputs.

This is why generic tools rarely achieve the promised acceleration in integration environments.

Benchmarks show vertical agents are about twice as accurate

CurieTech AI recently published comparative benchmarks evaluating its vertical integration agents against leading generic tools, including Claude Code.
The tests covered real-world tasks:

  • generating complete, multi-step integration flows
  • building cross-system data transformations
  • producing platform-aligned retries and error chains
  • implementing enterprise-standard logging
  • converting business requirements into executable integration logic

The results were clear: generic tools performed at roughly half the accuracy of vertical agents.

Generic outputs often looked plausible but contained structural errors or governance violations that would cause failures in QA or production. Vertical agents produced platform-aligned, fully structured workflows on the first pass.

For integration engineering – where errors cascade – this accuracy gap directly impacts delivery predictability and long-term quality.

The vertical agent advantage: Single-shot solutioning

The defining capability of vertical agents is single-shot task execution.

Generic tools force stepwise prompting and correction. But vertical agents—because they understand patterns, sequencing, and governance—can take a requirement like:

“Create an idempotent order-sync flow from NetSuite to SAP S/4HANA with canonical transformations, retries, and enterprise logging.”

…and return:

  • the flow
  • transformations
  • error handling
  • retries
  • logging
  • and test scaffolding

in one coherent output.

This shift – from instruction-oriented prompting to goal-oriented prompting—removes context latency and prompt fatigue while drastically reducing the need for developer oversight.

Built-in governance: The most underrated benefit

Integrations live and die by adherence to standards. Vertical agents embed those standards directly into generation:

  • naming and folder conventions
  • canonical data models
  • PII masking and sensitive-data controls
  • logging fields and formats
  • retry and exception handling patterns
  • platform-specific best practices

Generic models cannot consistently maintain these rules across prompts or projects.

Vertical agents enforce them automatically, which leads to higher-quality integrations with far fewer QA defects and production issues.

The real ROI: Quality, consistency, predictability

Organizations adopting vertical agents report three consistent benefits:

1. Higher-Quality Integrations

Outputs follow correct patterns and platform rules—reducing defects and architectural drift.

2. Greater Consistency Across Teams

Standardized logic and structures eliminate developer-to-developer variability.

3. More Predictable Delivery Timelines

Less rework means smoother pipelines and faster delivery.

A recent enterprise using CurieTech AI summarized the impact succinctly:

“For MuleSoft users, generic AI tools won’t cut it. But with domain-specific agents, the ROI is clear. Just start.”

For CIOs, these outcomes translate to increased throughput and higher trust in integration delivery.

Preparing for the agentic future

The industry is already moving beyond single responses toward agentic orchestration, where AI systems coordinate requirements gathering, design, mapping, development, testing, documentation, and deployment.

Vertical agents—because they understand multi-step integration workflows—are uniquely suited to lead this transition.

Generic coding agents lack the domain grounding to maintain coherence across these interconnected phases.

The bottom line

Generic coding assistants provide breadth, but vertical AI development agents deliver the depth, structure, and governance enterprise integrations require.

Vertical agents elevate both EAI and iPaaS programs by offering:

  • significantly higher accuracy
  • higher-quality, production-ready outputs
  • built-in governance and compliance
  • consistent logic and transformations
  • predictable delivery cycles

As integration workloads expand and become more central to digital transformation, organizations that adopt vertical AI agents early will deliver faster, with higher accuracy, and with far greater confidence.

In enterprise integrations, specialization isn’t optional—it is the foundation of the next decade of reliability and scale.

Learn more about CurieTech AI here.

Agile isn’t just for software. It’s a powerful way to lead

In times of disruption, Agile leadership can help CIOs make better, faster decisions — and guide their teams to execute with speed and discipline.

When the first case of COVID hit my home city, it was only two weeks after I’d become president of The Persimmon Group. For more than a decade, I’d coached leaders, teams and PMOs to execute their strategy with speed and discipline.

But now — in a top job for the first time — I was reeling.

Every plan we had in motion — strategic goals, project schedules, hiring decisions — was suddenly irrelevant. Clients froze budgets. Team members scrambled to set up remote work for the first time, many while balancing small children and shared spaces.

Within days, we were facing a dozen high-stakes questions about our business, all with incomplete information. Each answer carried massive operational and cultural implications.

We couldn’t just make the right call. We had to make it fast. And often, we were choosing between a bunch of bad options.

From crisis to cadence

At first, we tried to lead the way we always had: gather the facts, debate the trade-offs and pick the best path forward. But in a landscape that changed daily, that rhythm broke down fast.

The information we needed didn’t exist yet. The more we waited for certainty — or gamed out endless hypotheticals — the slower and more reactive we became.

And then something clicked. What if the same principles that helped software teams move quickly and learn in real time could help lead us through uncertainty?

So we started experimenting.

We shortened our time horizons. Made smaller bets. Created fast feedback loops. We became almost uncomfortably transparent, involving the team directly in critical decisions that affected them and their work.

In the months that followed, those experiments became the backbone of how we led through uncertainty — and how we continue to lead today.

An operating system for change

What emerged wasn’t a formal framework. It was a set of small, deliberate habits that brought the same rhythm and focus to leadership that Agile brings to delivery.

Here’s what that looked like in practice:

Develop a ‘fast frame’ to focus decisions

In the first few months of the pandemic, our leadership meetings were a tangle of what-ifs. What if we lost 20% of planned revenue this year? What if we lost 40%? Would we do layoffs? Furloughs? Salary cuts? And when would we do them — preemptively or reactively?

We were so busy living in multiple possible futures that it was difficult to move forward with purpose. To break out of overthinking mode, we built a lightweight framework we now call our fast frame. It centered on five questions:

  1. What do we know for sure?
  2. What can we find out quickly?
  3. What is unknowable right now?
  4. What’s the risk of deciding today?
  5. What’s the risk of not deciding today?

The fast frame forced us to separate facts from conjecture. It also helped us to get our timing right. When did we need to move fast, even with imperfect information? When could we afford to slow down and get more data points?

The fast frame helped us slash decision latency by 20% to 30%.

It kept us moving when the urge was to stall and it gave us language to talk about uncertainty without letting it rule the room.

Build plans around small, fast experiments

After using our fast frame for a while, we realized something: Our decisions were too big.

In an environment changing by the day, Big Permanent Decisions were impractical — and a massive time sink. Every hour we spent debating a Big Permanent Decision was an hour we weren’t learning something important.

So we replaced them with For-Now Decisions — temporary postures designed to move us forward, fast, while we learned what was real.

Each For-Now Decision had four parts:

  1. The decision itself — the action we’d take based on what we knew at that moment.
  2. A trigger for when to revisit it — either time-based (two weeks from now) or event-based (if a client delays a project).
  3. A few learning targets — what we hoped to discover before the next checkpoint.
  4. An agility signal — how we communicated the decision to the team. We’d say, “This is our posture for now, but we may change course if X. We’ll need your help watching for Y as we learn more.”

By framing decisions this way, we removed the pressure to be right. The goal wasn’t to predict the future but to learn from it faster. By abandoning bad ideas early, we saved 300 to 400 hours a year.

Increase cadence and transparency of communication

In those early weeks, we learned that the only thing more dangerous than a bad decision was a silent one. When information moves slower than events, people fill the gaps with assumptions.

So we made communication faster — and flatter. Every morning, our 20-person team met virtually for a 20-minute standup. The format was simple but consistent:

  • Executive push. We shared what the leadership team was working on, what decisions had been made and what input we needed next.
  • Team pull. Anyone could ask questions, raise issues or surface what they were hearing from clients.
  • Needs and lessons. We ended with what people needed to stay productive and what we were learning that others could benefit from.

The goal wasn’t to broadcast information from the top — or make all our decisions democratically. It was to create a shared operating picture. The standup became a heartbeat for the company, keeping everyone synchronized as conditions changed.

Transparency replaced certainty. Even when we didn’t have all the answers, people knew how decisions were being made and what we were watching next. That openness built confidence faster than pretending we had it all figured out.

That transparency paid off.

While many small consulting firms folded in the first 18 months of the pandemic, Agile leadership helped us double revenue in 24 months.

We stayed fully staffed — no layoffs, no pay cuts beyond the executive team. And the small bets we made during the pandemic helped rapidly expand our client base across new industries and international geographies.

Develop precise language to keep the team aligned

As we increased the speed of communication, we discovered something else: agility requires precision. When everything is moving fast, even small misunderstandings can send people sprinting in different directions.

We started tightening our language. Instead of broad discussions about what needed to get done, we’d ask, “What part of this can we get done by Friday?” That forced us to think in smaller delivery windows, sustain momentum and get specific about what “done” looked like.

We also learned to clarify between two operating modes: planning versus doing. Before leaving a meeting where a direction was discussed, we’d confirm our status:

  • Phase 1 meant we were still exploring, shaping and validating and would need at least one more meeting before implementing anything.
  • Phase 2 meant we were ready to execute.

That small distinction saved us hours of confusion, especially in cross-functional work.

Precise language gave us speed. It eliminated assumptions and kept everyone on the same page about where we were in the process. The more we reduced ambiguity, the faster — and calmer — the team moved.

Protect momentum by insisting on rest

Agility isn’t about moving faster forever — it’s about knowing when to slow down. During the first months of the pandemic, that lesson was easy to forget. Everything felt urgent and everyone felt responsible.

In software, a core idea behind Agile sprints is maintaining a sustainable pace of work. A predictable, consistent level of effort that teams can plan around is far more effective than the heroics often needed in waterfall projects to hit a deadline.

Agile was designed to be human-centered, protecting the well-being and happiness of the team so that performance can remain optimal. We tried to lead the same way.

After the first few frenetic months, I capped my own workday at nine hours. That boundary forced me to get honest about what could actually be done in the time I had — and prioritize ruthlessly. It also set a tone for the team. We adjusted scopes, redistributed work and held one another accountable for disconnecting at day’s end.

The expectation wasn’t endless effort — it was sustainable effort. That discipline kept burnout low and creativity high, even during our most demanding seasons. The consistency of our rest became as important as the intensity of our work. It gave us a rhythm we could trust — one that protected our momentum long after the crisis passed.

Readiness is the new stability

Now that the pandemic has passed, disruption has simply changed shape — AI, market volatility, new business models and the constant redefinition of “normal.” What hasn’t changed is the need for leaders who can act with speed and discipline at the same time.

For CIOs, that tension is sharper than ever. Technology leaders are being asked to deliver transformation at pace — without burning out their people or breaking what already works. The pressures that once felt exceptional have become everyday leadership conditions.

But you don’t have to be a Scrum shop or launch an enterprise Agile transformation to lead with agility. Agility is a mindset, not a method. To put the mindset into practice, focus on:

  • Shorter planning horizons
  • Faster, smaller decisions
  • Radical transparency
  • Language that brings alignment and calm
  • Boundaries that protect the energy of the team

These are the foundations of sustainable speed.

We built those practices in crisis, but they’ve become our default operating system in calmer times. They remind me that agility isn’t a reaction to change — it’s a readiness for it. And in a world where change never stops, that readiness may be a leader’s most reliable source of stability.

This article is published as part of the Foundry Expert Contributor Network.
Want to join?

LLMエージェント時代のプロダクトマネジメント──仕様は“振る舞い”から設計せよ

機能志向から「振る舞い志向」へのパラダイムシフト

従来のソフトウェア開発において、仕様とは機能と画面の一覧であることが多くありました。どのボタンを押すとどのAPIが呼ばれ、どのデータがどのように更新されるかを、フローチャートや画面遷移図で記述するやり方です。このアプローチは、入力と出力が厳密に定義できる決定論的なシステムに対しては非常に有効でした。

ところが、LLMエージェントは本質的に確率的なシステムです。同じ質問をしても、生成される文章は毎回少しずつ異なりますし、状況の変化やメモリの内容、外部ツールからのレスポンスによっても振る舞いが変わります。このようなシステムに対して「すべての入力パターンと出力を網羅する仕様書」を書こうとすると、すぐに破綻してしまいます。結果として、「なんとなく賢いアシスタントを入れてみたが、どうなっていれば成功なのか分からない」という状態に陥りがちです。

そこで必要になるのが、機能ベースではなく振る舞いベースの仕様設計です。重要なのは「このエージェントはどんな人格・役割を持ち、ユーザーから見てどのように振る舞ってほしいのか」を言語化することです。専門用語をどの程度使うのか、どこまで踏み込んだ提案をしてよいのか、分からないときに黙り込むのではなくどう質問し返すのか、といった対話上の振る舞いに加え、どの外部ツールをどの状況で使ってよいのか、どこから先は必ず人間の承認を挟むのかといった、権限や責任に関するルールも仕様の一部になります。

プロダクトマネージャーは、これらを自然言語で記述された「行動指針」として定義し、それをプロンプトやシステムメッセージ、ポリシーファイルとして実装チームと共有していく必要があります。従来の要件定義書に、人格設計や対話ポリシー、ツール利用ルールといった新しい章が追加されるイメージです。

仕様書としてのプロンプトとポリシー設計

LLMエージェントにおいて、プロンプトは単なる「その場しのぎの魔法の呪文」ではなく、仕様書そのものに近い役割を果たします。とくにシステムプロンプトやロール定義、ツールの説明文などには、プロダクトマネージャーが考え抜いた行動ポリシーが反映されるべきです。

たとえば、カスタマーサポート向けのエージェントを設計する場合、「顧客の感情を先に受け止める」「自社に非がある可能性を軽々しく認めないが、決して責任転嫁もしない」「法的な判断を伴う表現は必ず保留し、人間の担当者にエスカレーションする」といったニュアンスをプロンプトに埋め込むことができます。ここで有効なのは、抽象的な美辞麗句ではなく、実際にあり得る会話例を含めた具体的な指示です。良い応答例と悪い応答例を並べ、どちらを目指すかを明示することで、モデルの振る舞いは大きく変わります。

さらに、ツール利用ポリシーも仕様として明文化する必要があります。どのツールは読み取り専用なのか、どのAPIを呼ぶ際には必ずユーザーに確認を求めるのか、連続して外部サービスを叩きすぎないためのレート制限はどう設計するのかといった点を、プロダクトマネージャーがビジネス側・セキュリティ側の利害を調整しながら決めていきます。その結果は、エージェントのランタイム設定とプロンプト両方に反映されます。

このように、プロンプトとポリシーは「コードではない仕様」でありながら、システムの振る舞いを強く規定します。したがって、プロンプトの改訂は仕様変更そのものであり、変更管理やレビューのプロセスが必要です。誰がどの目的でプロンプトを更新し、それによってどの指標がどのように変化したのかを記録しておくことは、品質とガバナンスの両面から重要になっていきます。

評価・ロールアウト・組織体制の再設計

振る舞いベースの仕様を設計できたとしても、それが「良いかどうか」をどう評価するかという問題が残ります。LLMエージェントでは、一件一件の応答の正しさだけでなく、タスク全体としての成功率、ユーザーが節約できた時間、誤動作によるリスクの頻度と重大性など、複数の指標を組み合わせて判断する必要があります。

実務上は、まず限定されたユースケースを対象に、パイロットユーザーを相手にベータ運用を行うのが現実的です。その際、ユーザーにはなるべくそのままのログを残してもらい、どの場面でエージェントが役に立ち、どの場面でイラッとさせられたのかを定性的・定量的に分析します。プロダクトマネージャーは、その結果をもとに、プロンプトやツール構成、インターフェースを繰り返し調整していきます。評価指標としては、タスク完了までに必要なステップ数の減少、手動対応へのエスカレーション率、ユーザーの主観的満足度などが使われることが多くなります。

ロールアウトの戦略も、従来の機能リリースとは少し異なります。LLMエージェントは、権限の範囲によってリスクが大きく変わるため、最初は「提案のみ」「ドラフトのみ」といった控えめなモードで導入し、一定の実績が確認できてから「自動実行」の範囲を広げていく段階的なアプローチが望ましいでしょう。その過程で、ユーザー教育や利用ポリシーの明文化も並行して進める必要があります。

最後に、組織体制についても触れておく必要があります。LLMエージェントのプロダクトには、モデルのチューニングやプロンプト設計に詳しいメンバー、ドメイン知識を持つ業務側のメンバー、セキュリティ・法務の観点からリスクを見られるメンバーなど、多様な専門性が求められます。プロダクトマネージャーは、その橋渡し役として、技術とビジネスとガバナンスを統合する「翻訳者」のような存在になります。この新しい役割を自覚し、学び続けることが、LLMエージェント時代のPMに求められる最大の資質だと言えるでしょう。

Agents-as-a-service are poised to rewire the software industry and corporate structures

This was the year of AI agents. Chatbots that simply answered questions are now evolving into autonomous agents that can carry out tasks on a user’s behalf, so enterprises continue to invest in agentic platforms as transformation evolves. Software vendors are investing in it as fast as they can, too.

According to a National Research Group survey of more than 3,000 senior leaders, more than half of executives say their organization is already using AI agents. Of the companies that spend no less than half their AI budget on AI agents, 88% say they’re already seeing ROI on at least one use case, with top areas being customer service and experience, marketing, cybersecurity, and software development.

On the software provider side, Gartner predicts 40% of enterprise software applications in 2026 will include agentic AI, up from less than 5% today. And agentic AI could drive approximately 30% of enterprise application software revenue by 2035, surpassing $450 billion, up from 2% in 2025. In fact, business users might not have to interact directly with the business applications at all since AI agent ecosystems will carry out user instructions across multiple applications and business functions. At that point, a third of user experiences will shift from native applications to agentic front ends, Gartner predicts.

It’s already starting. Most enterprise applications will have embedded assistants, a precursor to agentic AI, by the end of this year, adds Gartner.

IDC has similar predictions. By 2028, 45% of IT product and service interactions will use agents as the primary interface, the firm says. That’ll change not just how companies work, but how CIOs work as well.

Agents as employees

At financial services provider OneDigital, chief product officer Vinay Gidwaney is already working with AI agents, almost as if they were people.

“We decided to call them AI coworkers, and we set up an AI staffing team co-owned between my technology team and our chief people officer and her HR team,” he says. “That team is responsible for hiring AI coworkers and bringing them into the organization.” You heard that right: “hiring.”

The first step is to sit down with the business leader and write a job description, which is fed to the AI agent, and then it becomes known as an intern.

“We have a lot of interns we’re testing at the company,” says Gidwaney. “If they pass, they get promoted to apprentices and we give them our best practices, guardrails, a personality, and human supervisors responsible for training them, auditing what they do, and writing improvement plans.”

The next promotion is to a full-time coworker, and it becomes available to be used by anyone at the company.

“Anyone at our company can go on the corporate intranet, read the skill sets, and get ice breakers if they don’t know how to start,” he says. “You can pick a coworker off the shelf and start chatting with them.”

For example, there’s Ben, a benefits expert who’s trained on everything having to do with employee benefits.

“We have our employee benefits consultants sitting with clients every day,” Gidwaney says. “Ben will take all the information and help the consultants strategize how to lower costs, and how to negotiate with carriers. He’s the consultants’ thought partner.”

There are similar AI coworkers working on retirement planning, and on property and casualty as well. These were built in-house because they’re core to the company’s business. But there are also external AI agents who can provide additional functionality in specialized yet less core areas, like legal or marketing content creation. In software development, OneDigital uses third-party AI agents as coding assistants.

When choosing whether to sign up for these agents, Gidwaney says he doesn’t think of it the way he thinks about licensing software, but more to hiring a human consultant or contractor. For example, will the agent be a good cultural fit?

But in some cases, it’s worse than hiring humans since a bad human hire who turns out to be toxic will only interact with a small number of other employees. But an AI agent might interact with thousands of them.

“You have to apply the same level of scrutiny as how you hire real humans,” he says.

A vendor who looks like a technology company might also, in effect, be a staffing firm. “They look and feel like humans, and you have to treat them like that,” he adds.

Another way that AI agents are similar to human consultants is when they leave the company, they take their expertise with them, including what they gained along the way. Data can be downloaded, Gidwaney says, but not necessarily the fine-tuning or other improvements the agent received. Realistically, there might not be any practical way to extract that from a third-party agent, and that could lead to AI vendor lock-in.

Edward Tull, VP of technology and operations at JBGoodwin Realtors, says he, too, sees AI agents as something akin to people. “I see it more as a teammate,” he says. “As we implement more across departments, I can see these teammates talking to each other. It becomes almost like a person.”

Today, JBGoodwin uses two main platforms for its AI agents. Zapier lets the company build its own and HubSpot has its own AaaS, and they’re already pre-built. “There are lead enrichment agents and workflow agents,” says Tull.

And the company is open to using more. “In accounting, if someone builds an agent to work with this particular type of accounting software, we might hire that agent,” he says. “Or a marketing coordinator that we could hire that’s built and ready to go and connected to systems we already use.”

With agents, his job is becoming less about technology and more about management, he adds. “It’s less day-to-day building and more governance, and trying to position the company to be competitive in the world of AI,” he says.

He’s not the only one thinking of AI agents as more akin to human workers than to software.

“With agents, because the technology is evolving so far, it’s almost like you’re hiring employees,” says Sheldon Monteiro, chief product officer at Publicis Sapient. “You have to determine whom to hire, how to train them, make sure all the business units are getting value out of them, and figure when to fire them. It’s a continuous process, and this is very different from the past, where I make a commitment to a platform and stick with it because the solution works for the business.”

This changes how the technology solutions are managed, he adds. What companies will need now is a CHRO, but for agentic employees.

Managing outcomes, not persons

Vituity is one of the largest national, privately-held medical groups, with 600 hospitals, 13,800 employees, and nearly 14 million patients. The company is building its own AI agents, but is also using off-the-shelf ones, as AaaS. And AI agents aren’t people, says CIO Amith Nair. “The agent has no feelings,” he says. “AGI isn’t here yet.”

Instead, it all comes down to outcomes, he says. “If you define an outcome for a task, that’s the outcome you’re holding that agent to.” And that part isn’t different to holding employees accountable to an outcome. “But you don’t need to manage the agent,” he adds. “They’re not people.”

Instead, the agent is orchestrated and you can plug and play them. “It needs to understand our business model and our business context, so you ground the agent to get the job done,” he says.

For mission-critical functions, especially ones related to sensitive healthcare data, Vituity is building its own agents inside a HIPAA-certified LLM environment using the Workato agent development platform and the Microsoft agentic platform.

For other functions, especially ones having to do with public data, Vituity uses off-the-shelf agents, such as ones from Salesforce and Snowflake. The company is also using Claude with GitHub Copilot for coding. Nair can already see that agentic systems will change the way enterprise software works.

“Most of the enterprise applications should get up to speed with MCP, the integration layer for standardization,” he says. “If they don’t get to it, it’s going to become a challenge for them to keep selling their product.”

A company needs to be able to access its own data via an MCP connector, he says. “AI needs data, and if they don’t give you an MCP, you just start moving it all to a data warehouse,” he adds.

Sharp learning curve

In addition to providing a way to store and organize your data, enterprise software vendors also offer logic and functionality, and AI will soon be able to handle that as well.

“All you need is a good workflow engine where you can develop new business processes on the fly, so it can orchestrate with other agents,” Nair says. “I don’t think we’re too far away, but we’re not there yet. Until then, SaaS vendors are still relevant. The question is, can they charge that much money anymore.”

The costs of SaaS will eventually have to come down to the cost of inference, storage, and other infrastructure, but they can’t survive the way they’re charging now he says. So SaaS vendors are building agents to augment or replace their current interfaces. But that approach itself has its limits. Say, for example, instead of using Salesforce’s agent, a company can use its own agents to interact with the Salesforce environment.

“It’s already happening,” Nair adds. “My SOC agent is pulling in all the log files from Salesforce. They’re not providing me anything other than the security layer they need to protect the data that exists there.”

AI agents are set to change the dynamic between enterprises and software vendors in other ways, too. One major difference between software and agents is software is well-defined, operates in a particular way, and changes slowly, says Jinsook Han, chief of strategy, corporate development, and global agentic AI at Genpact.

“But we expect when the agent comes in, it’s going to get smarter every day,” she says. “The world will change dramatically because agents are continuously changing. And the expectations from the enterprises are also being reshaped.”

Another difference is agents can more easily work with data and systems where they are. Take for example a sales agent meeting with customers, says Anand Rao, AI professor at Carnegie Mellon University. Each salesperson has a calendar where all their meetings are scheduled, and they have emails, messages, and meeting recordings. An agent can simply access those emails when needed.

“Why put them all into Salesforce?” Rao asks. “If the idea is to do and monitor the sale, it doesn’t have to go into Salesforce, and the agents can go grab it.”

When Rao was a consultant having a conversation with a client, he’d log it into Salesforce with a note, for instance, saying the client needs a white paper from the partner in charge of quantum.

With an agent taking notes during the meeting, it can immediately identify the action items and follow up to get the white paper.

“Right now we’re blindly automating the existing workflow,” Rao says. “But why do we need to do that? There’ll be a fundamental shift of how we see value chains and systems. We’ll get rid of all the intermediate steps. That’s the biggest worry for the SAPs, Salesforces, and Workdays of the world.”

Another aspect of the agentic economy is instead of a human employee talking to a vendor’s AI agent, a company agent can handle the conversation on the employee’s behalf. And if a company wants to switch vendors, the experience will be seamless for employees, since they never had to deal directly with the vendor anyway.

“I think that’s something that’ll happen,” says Ricardo Baeza-Yates, co-chair of the  US technology policy committee at the Association for Computing Machinery. “And it makes the market more competitive, and makes integrating things much easier.”

In the short term, however, it might make more sense for companies to use the vendors’ agents instead of creating their own.

“I recommend people don’t overbuild because everything is moving,” says Bret Greenstein, CAIO at West Monroe Partners, a management consulting firm. “If you build a highly complicated system, you’re going to be building yourself some tech debt. If an agent exists in your application and it’s localized to the data in that application, use it.”

But over time, an agent that’s independent of the application can be more effective, he says, and there’s a lot of lock-in that goes into applications. “It’s going to be easier every day to build the agent you want without having to buy a giant license. “The effort to get effective agents is dropping rapidly, and the justification for getting expensive agents from your enterprise software vendors is getting less,” he says.

The future of software

According to IDC, pure seat-based pricing will be obsolete by 2028, forcing 70% of vendors to figure out new business models.

With technology evolving as quickly as it is, JBGoodwin Realtors has already started to change its approach to buying tech, says Tull. It used to prefer long-term contracts, for example but that’s not the case anymore “You save more if you go longer, but I’ll ask for an option to re-sign with a cap,” he says.

That doesn’t mean SaaS will die overnight. Companies have made significant investments in their current technology infrastructure, says Patrycja Sobera, SVP of digital workplace solutions at Unisys.

“They’re not scrapping their strategies around cloud and SaaS,” she says. “They’re not saying, ‘Let’s abandon this and go straight to agentic.’ I’m not seeing that at all.”

Ultimately, people are slow to change, and institutions are even slower. Many organizations are still running legacy systems. For example, the FAA has just come out with a bold plan to update its systems by getting rid of floppy disks and upgrading from Windows 95. They expect this to take four years.

But the center of gravity will move toward agents and, as it does, so will funding, innovation, green-field deployments, and the economics of the software industry.

“There are so many organizations and leaders who need to cross the chasm,” says Sobera. “You’re going to have organizations at different levels of maturity, and some will be stuck in SaaS mentality, but feeling more in control while some of our progressive clients will embrace the move. We’re also seeing those clients outperform their peers in revenue, innovation, and satisfaction.”

CIOs take note: talent will walk without real training and leadership

Tech talent, especially with advanced and specialized skills, remains elusive. Findings from a recent IT global HR trends report by Gi Group show a 47% enterprise average struggles with sourcing and retaining talent. As a consequence, turnover remains high.

Another international study by Cegos highlights that 53% of 200 directors or managers of information systems in Italy alone say the difficulty of attracting and retaining IT talent is something they face daily. Cybersecurity is the most relevant IT problem but a majority, albeit slight, feels confident of tackling it. Conversely, however, only 8% think they’ll be able to solve the IT talent problem. IT team skills development and talent retention are the next biggest issues facing CIOs in Italy, and only 24% and 9%, respectively, think they can successfully address it.

“Talents aren’t rare,” says Cecilia Colasanti, CIO of Istat, the National Institute of Statistics. “They’re there but they’re not valued. That’s why, more often, they prefer to go abroad. For me, talent is the right person in the right place. Managers, including CIOs, must have the ability to recognize talents, make them understand they’ve been identified, and enhance them with the right opportunities.”

The CIO as protagonist of talent management

Colasanti has very clear ideas on how to manage her talents to create a cohesive and motivated group. “The goal I set myself as CIO was to release increasingly high-quality products for statistical users, both internal and external,” she says. “I want to be concrete and close the projects we’ve opened, to ensure the institution continues to improve with the contribution of IT, which is a driver of statistical production. I have the task of improving the IT function, the quality of the products released, the relevance of the management, and the well-being of people.”

Istat’s IT department currently has 195 people, and represents about 10% of the institute’s entire staff. Colasanti’s first step after her CIO appointment in October 2023 was to personally meet with all the resources assigned to management for an interview.

“I’ve been working at Istat since 2001 and almost everyone knows each other,” she says. “I’ve held various roles in the IT department, and in my latest role as CIO, I want to listen to everyone to gather every possible viewpoint. Because how well we know each other, I feel my colleagues have a high expectation of our work together. That’s why I try to establish a frank dialogue and avoid ambiguity. But I make it clear that listening doesn’t mean delegating responsibility. I accept some proposals, reject others, and try to justify choices.”

Another move was to reinstate the two problems, two solutions initiative launched in Istat many years ago. Colasanti asked staff, on a voluntary basis, to identify two problems and propose two solutions. She then processed the material and shared the results in face-to-face meetings, commenting on the proposals, and evaluating those to be followed up.

“I’ve been very vocal about this initiative,” she says, “But I also believe it’s been an effective way to cement the relationship of trust with my colleagues.”

Some of the inquiries related to career opportunities and technical issues, but the most frequent pain points that emerged were internal communication and staff shortages. Colasanti spoke with everyone, clarifying which points she could or couldn’t act on. Career paths and hiring in the public sector, for example, follow precise procedures where little could be influenced.

“I tried to address all the issues from a proactive perspective,” she says. “Where I perceived a generic resistance to change rather than a specific problem, I tried to focus on intrinsic motivation and people’s commitment. It’s important to explain the strategies of the institution and the role of each person to achieve objectives. After all, people need and have the right to know the context in which they operate, and be aware of how their work affects the bigger picture.”

Engagement must be built day by day, so Colasanti regularly meets with staff including heads of department and service managers.

Small enterprise, big concerns

The case of Istat stands out for the size of its IT department, but in SMEs, IT functions can be just a handful of people, including the CIO, and much of the work is done by external consultants and suppliers. It’s a structure that has to be worked with, dividing themselves between coordinating various resources across different projects, and the actual IT work. Outsourcing to the cloud is an additional support but CIOs would generally like to have more in-house expertise rather than depend on partners to control supplier products.

Attracting and retaining talent is a problem, so things are outsourced,” says the CIO of a small healthcare company with an IT team of three. “You offload the responsibility and free up internal resources at the risk of losing know-how in the company. But at the moment, we have no other choice. We can’t offer the salaries of a large private group, and IT talent changes jobs every two years, so keeping people motivated is difficult. We hire a candidate, go through the training, and see them grow only to see them leave. But our sector is highly specialized and the necessary skills are rare.”

The sirens of the market are tempting for those with the skills to command premium positioning, and the private sector is able to attract talent more easily than public due to its hiring flexibility and career paths.

“The public sector offers the opportunity to research, explore and deepen issues that private companies often don’t invest in because they don’t see the profit,” says Colasanti. “The public has the good of the community as its mission and can afford long-term investments.”

Training builds resource retention

To meet demand, CIOs are prioritizing hiring new IT profiles and training their teams, according to the Cegos international barometer. Offering reskilling and upskilling are effective ways to overcome the pitfalls of talent acquisition and retention.

“The market is competitive, so retaining talent requires barriers to exit,” says Emanuela Pignataro, head of business transformation and execution at Cegos Italia. “If an employer creates a stimulating and rewarding environment with sufficient benefits, people are less likely to seek other opportunities or get caught up in the competition. Many feel they’re burdened with too many tasks they can’t cope with on their own, and these are people with the most valuable skills, but who often work without much support. So if the company spends on training or onboarding new people who support these people, they create reassurance, which generates loyalty.”

In fact, Colasanti is a staunch supporter of life-long learning, and the experience that brings balance and management skills. But she doesn’t have a large budget for IT training, yet solutions in response to certain requests are within reach.

“In these cases, I want serious commitment,” she says. “The institution invests and the course must give a result. A higher budget would be useful, of course, especially for an ever-evolving subject like cybersecurity.”

The need for leadership

CIOs also recognize the importance of following people closely, empowering them, and giving them a precise and relevant role that enhances motivation. It’s also essential to collaborate with the HR function to develop tools for welfare and well-being.

According to the Gi Group study, the factors that IT candidates in Italy consider a priority when choosing an employer are, in descending order, salary, a hybrid job offer, work-life balance, the possibility of covering roles that don’t involve high stress levels, and opportunities for career advancement and professional growth.

But there’s another aspect that helps solve the age-old issue of talent management. CIOs need to recognize more of the role of their leadership. At the moment, Italian IT directors place it at the bottom of their key qualities. In the Cegos study, technical expertise, strategic vision, and ability to innovate come first, while leadership came a distant second. But the leadership of the CIO is a founding basis, even when there’s disagreement with choices.

“I believe in physical presence in the workplace,” says Colasanti. “Istat has a long tradition of applying teleworking and implementing smart working, which everyone can access if they wish. Personally, I prefer to be in the office, but I respect the need to reconcile private life and work, and I have no objection to agile working. I’m on site every day, though. My colleagues know I’m here.”

❌