Reading view

There are new articles available, click to refresh the page.

Resops: Turning AI disruption into business momentum

The world has changed — artificial intelligence (AI) is reshaping business faster than most can adapt


The rise of large language models and agentic AI has created unprecedented scale, speed, and complexity. Enterprises are moving from static infrastructures to hyperplexed, distributed, and autonomous systems. Organizations are pouring more than $400 billion into AI infrastructure, a wave expected to generate more than $2 trillion in new value. But without resilience at the core, that value remains at risk.

As innovation accelerates, new risks emerge just as quickly. Security is lagging behind transformation. Data is exploding, with nearly 40% year-over-year growth across hybrid and multicloud environments. Regulations are tightening, and ransomware and AI-powered attacks are multiplying. The result: Resilience now defines competitive advantage.

Resilience drives velocity

Resilience isn’t just recovery. It’s also the foundation of sustained innovation. Traditional recovery models were built for yesterday’s outages, not today’s AI-driven disruptions, which unfold in milliseconds. In this world, recovery is table stakes. True resilience means that every system runs on clean, verifiable data, and it restores trust when it’s tested.

The most resilient organizations are also the fastest movers. They adopt emerging technologies with confidence, recover with speed and integrity, and innovate at scale. Resilience has evolved from a safety net to the engine of enterprise speed and scalability.

Introducing resops, the model for next-generation resilience

Resops, short for resilience operations, is an operating model that unifies data protection, cyber recovery, and governance into a single intelligent system. It creates an ongoing loop that monitors, validates, and protects data across hybrid and multicloud environments, enabling organizations to detect risks early and recover with confidence.

By integrating resilience into every layer of operations, resops transforms it from an isolated function into a proactive discipline — one that keeps businesses secure, compliant, and ready to adapt in the AI era.

To learn more about ResOps, read “ResOps: The future of resilient business in the era of AI.” 


Vertical AI development agents are the future of enterprise integrations

Enterprise Application Integration (EAI) and modern iPaaS platforms have become two of the most strategically important – and resource-constrained – functions inside today’s enterprises. As organizations scale SaaS adoption, modernize core systems, and automate cross-functional workflows, integration teams face mounting pressure to deliver faster while upholding strict architectural, data quality, and governance standards.

AI has entered this environment with the promise of acceleration. But CIOs are discovering a critical truth:

Not all AI is built for the complexity of enterprise integrations – whether in traditional EAI stacks or modern iPaaS environments.

Generic coding assistants such as Cursor or Claude Code can boost individual productivity, but they struggle with the pattern-heavy, compliance-driven reality of integration engineering. What looks impressive in a demo often breaks down under real-world EAI/iPaaS conditions.

This widening gap has led to the rise of a new category: Vertical AI Development Agents – domain-trained agents purpose-built for integration and middleware development. Companies like CurieTech AI are demonstrating that specialized agents deliver not just speed, but materially higher accuracy, higher-quality outputs, and far better governance than general-purpose tools.

For CIOs running mission-critical integration programs, that difference directly affects reliability, delivery velocity, and ROI.

Why EAI and iPaaS integrations are not a “Generic Coding” problem

Integrations—whether built on legacy middleware or modern iPaaS platforms – operate within a rigid architectural framework:

  • multi-step orchestration, sequencing, and idempotency
  • canonical data transformations and enrichment
  • platform-specific connectors and APIs
  • standardized error-handling frameworks
  • auditability and enterprise logging conventions
  • governance and compliance embedded at every step

Generic coding models are not trained on this domain structure. They often produce code that looks correct, yet subtly breaks sequencing rules, omits required error handling, mishandles transformations, or violates enterprise logging and naming standards.

Vertical agents, by contrast, are trained specifically to understand flow logic, mappings, middleware orchestration, and integration patterns – across both EAI and iPaaS architectures. They don’t just generate code – they reason in the same structures architects and ICC teams use to design integrations.

This domain grounding is the critical distinction.

The hidden drag: Context latency, expensive context managers, and prompt fatigue

Teams experimenting with generic AI encounter three consistent frictions:

Context Latency

Generic models cannot retain complex platform context across prompts. Developers must repeatedly restate platform rules, logging standards, retry logic, authentication patterns, and canonical schemas.

Developers become “expensive context managers”

A seemingly simple instruction—“Transform XML to JSON and publish to Kafka”
quickly devolves into a series of corrective prompts:

  • “Use the enterprise logging format.”
  • “Add retries with exponential backoff.”
  • “Fix the transformation rules.”
  • “Apply the standardized error-handling pattern.”

Developers end up managing the model instead of building the solution.

Prompt fatigue

The cycle of re-prompting, patching, and enforcing architectural rules consumes time and erodes confidence in outputs.

This is why generic tools rarely achieve the promised acceleration in integration environments.

Benchmarks show vertical agents are about twice as accurate

CurieTech AI recently published comparative benchmarks evaluating its vertical integration agents against leading generic tools, including Claude Code.
The tests covered real-world tasks:

  • generating complete, multi-step integration flows
  • building cross-system data transformations
  • producing platform-aligned retries and error chains
  • implementing enterprise-standard logging
  • converting business requirements into executable integration logic

The results were clear: generic tools performed at roughly half the accuracy of vertical agents.

Generic outputs often looked plausible but contained structural errors or governance violations that would cause failures in QA or production. Vertical agents produced platform-aligned, fully structured workflows on the first pass.

For integration engineering – where errors cascade – this accuracy gap directly impacts delivery predictability and long-term quality.

The vertical agent advantage: Single-shot solutioning

The defining capability of vertical agents is single-shot task execution.

Generic tools force stepwise prompting and correction. But vertical agents—because they understand patterns, sequencing, and governance—can take a requirement like:

“Create an idempotent order-sync flow from NetSuite to SAP S/4HANA with canonical transformations, retries, and enterprise logging.”

…and return:

  • the flow
  • transformations
  • error handling
  • retries
  • logging
  • and test scaffolding

in one coherent output.

This shift – from instruction-oriented prompting to goal-oriented prompting—removes context latency and prompt fatigue while drastically reducing the need for developer oversight.

Built-in governance: The most underrated benefit

Integrations live and die by adherence to standards. Vertical agents embed those standards directly into generation:

  • naming and folder conventions
  • canonical data models
  • PII masking and sensitive-data controls
  • logging fields and formats
  • retry and exception handling patterns
  • platform-specific best practices

Generic models cannot consistently maintain these rules across prompts or projects.

Vertical agents enforce them automatically, which leads to higher-quality integrations with far fewer QA defects and production issues.

The real ROI: Quality, consistency, predictability

Organizations adopting vertical agents report three consistent benefits:

1. Higher-Quality Integrations

Outputs follow correct patterns and platform rules—reducing defects and architectural drift.

2. Greater Consistency Across Teams

Standardized logic and structures eliminate developer-to-developer variability.

3. More Predictable Delivery Timelines

Less rework means smoother pipelines and faster delivery.

A recent enterprise using CurieTech AI summarized the impact succinctly:

“For MuleSoft users, generic AI tools won’t cut it. But with domain-specific agents, the ROI is clear. Just start.”

For CIOs, these outcomes translate to increased throughput and higher trust in integration delivery.

Preparing for the agentic future

The industry is already moving beyond single responses toward agentic orchestration, where AI systems coordinate requirements gathering, design, mapping, development, testing, documentation, and deployment.

Vertical agents—because they understand multi-step integration workflows—are uniquely suited to lead this transition.

Generic coding agents lack the domain grounding to maintain coherence across these interconnected phases.

The bottom line

Generic coding assistants provide breadth, but vertical AI development agents deliver the depth, structure, and governance enterprise integrations require.

Vertical agents elevate both EAI and iPaaS programs by offering:

  • significantly higher accuracy
  • higher-quality, production-ready outputs
  • built-in governance and compliance
  • consistent logic and transformations
  • predictable delivery cycles

As integration workloads expand and become more central to digital transformation, organizations that adopt vertical AI agents early will deliver faster, with higher accuracy, and with far greater confidence.

In enterprise integrations, specialization isn’t optional—it is the foundation of the next decade of reliability and scale.

Learn more about CurieTech AI here.

Agile isn’t just for software. It’s a powerful way to lead

In times of disruption, Agile leadership can help CIOs make better, faster decisions — and guide their teams to execute with speed and discipline.

When the first case of COVID hit my home city, it was only two weeks after I’d become president of The Persimmon Group. For more than a decade, I’d coached leaders, teams and PMOs to execute their strategy with speed and discipline.

But now — in a top job for the first time — I was reeling.

Every plan we had in motion — strategic goals, project schedules, hiring decisions — was suddenly irrelevant. Clients froze budgets. Team members scrambled to set up remote work for the first time, many while balancing small children and shared spaces.

Within days, we were facing a dozen high-stakes questions about our business, all with incomplete information. Each answer carried massive operational and cultural implications.

We couldn’t just make the right call. We had to make it fast. And often, we were choosing between a bunch of bad options.

From crisis to cadence

At first, we tried to lead the way we always had: gather the facts, debate the trade-offs and pick the best path forward. But in a landscape that changed daily, that rhythm broke down fast.

The information we needed didn’t exist yet. The more we waited for certainty — or gamed out endless hypotheticals — the slower and more reactive we became.

And then something clicked. What if the same principles that helped software teams move quickly and learn in real time could help lead us through uncertainty?

So we started experimenting.

We shortened our time horizons. Made smaller bets. Created fast feedback loops. We became almost uncomfortably transparent, involving the team directly in critical decisions that affected them and their work.

In the months that followed, those experiments became the backbone of how we led through uncertainty — and how we continue to lead today.

An operating system for change

What emerged wasn’t a formal framework. It was a set of small, deliberate habits that brought the same rhythm and focus to leadership that Agile brings to delivery.

Here’s what that looked like in practice:

Develop a ‘fast frame’ to focus decisions

In the first few months of the pandemic, our leadership meetings were a tangle of what-ifs. What if we lost 20% of planned revenue this year? What if we lost 40%? Would we do layoffs? Furloughs? Salary cuts? And when would we do them — preemptively or reactively?

We were so busy living in multiple possible futures that it was difficult to move forward with purpose. To break out of overthinking mode, we built a lightweight framework we now call our fast frame. It centered on five questions:

  1. What do we know for sure?
  2. What can we find out quickly?
  3. What is unknowable right now?
  4. What’s the risk of deciding today?
  5. What’s the risk of not deciding today?

The fast frame forced us to separate facts from conjecture. It also helped us to get our timing right. When did we need to move fast, even with imperfect information? When could we afford to slow down and get more data points?

The fast frame helped us slash decision latency by 20% to 30%.

It kept us moving when the urge was to stall and it gave us language to talk about uncertainty without letting it rule the room.

Build plans around small, fast experiments

After using our fast frame for a while, we realized something: Our decisions were too big.

In an environment changing by the day, Big Permanent Decisions were impractical — and a massive time sink. Every hour we spent debating a Big Permanent Decision was an hour we weren’t learning something important.

So we replaced them with For-Now Decisions — temporary postures designed to move us forward, fast, while we learned what was real.

Each For-Now Decision had four parts:

  1. The decision itself — the action we’d take based on what we knew at that moment.
  2. A trigger for when to revisit it — either time-based (two weeks from now) or event-based (if a client delays a project).
  3. A few learning targets — what we hoped to discover before the next checkpoint.
  4. An agility signal — how we communicated the decision to the team. We’d say, “This is our posture for now, but we may change course if X. We’ll need your help watching for Y as we learn more.”

By framing decisions this way, we removed the pressure to be right. The goal wasn’t to predict the future but to learn from it faster. By abandoning bad ideas early, we saved 300 to 400 hours a year.

Increase cadence and transparency of communication

In those early weeks, we learned that the only thing more dangerous than a bad decision was a silent one. When information moves slower than events, people fill the gaps with assumptions.

So we made communication faster — and flatter. Every morning, our 20-person team met virtually for a 20-minute standup. The format was simple but consistent:

  • Executive push. We shared what the leadership team was working on, what decisions had been made and what input we needed next.
  • Team pull. Anyone could ask questions, raise issues or surface what they were hearing from clients.
  • Needs and lessons. We ended with what people needed to stay productive and what we were learning that others could benefit from.

The goal wasn’t to broadcast information from the top — or make all our decisions democratically. It was to create a shared operating picture. The standup became a heartbeat for the company, keeping everyone synchronized as conditions changed.

Transparency replaced certainty. Even when we didn’t have all the answers, people knew how decisions were being made and what we were watching next. That openness built confidence faster than pretending we had it all figured out.

That transparency paid off.

While many small consulting firms folded in the first 18 months of the pandemic, Agile leadership helped us double revenue in 24 months.

We stayed fully staffed — no layoffs, no pay cuts beyond the executive team. And the small bets we made during the pandemic helped rapidly expand our client base across new industries and international geographies.

Develop precise language to keep the team aligned

As we increased the speed of communication, we discovered something else: agility requires precision. When everything is moving fast, even small misunderstandings can send people sprinting in different directions.

We started tightening our language. Instead of broad discussions about what needed to get done, we’d ask, “What part of this can we get done by Friday?” That forced us to think in smaller delivery windows, sustain momentum and get specific about what “done” looked like.

We also learned to clarify between two operating modes: planning versus doing. Before leaving a meeting where a direction was discussed, we’d confirm our status:

  • Phase 1 meant we were still exploring, shaping and validating and would need at least one more meeting before implementing anything.
  • Phase 2 meant we were ready to execute.

That small distinction saved us hours of confusion, especially in cross-functional work.

Precise language gave us speed. It eliminated assumptions and kept everyone on the same page about where we were in the process. The more we reduced ambiguity, the faster — and calmer — the team moved.

Protect momentum by insisting on rest

Agility isn’t about moving faster forever — it’s about knowing when to slow down. During the first months of the pandemic, that lesson was easy to forget. Everything felt urgent and everyone felt responsible.

In software, a core idea behind Agile sprints is maintaining a sustainable pace of work. A predictable, consistent level of effort that teams can plan around is far more effective than the heroics often needed in waterfall projects to hit a deadline.

Agile was designed to be human-centered, protecting the well-being and happiness of the team so that performance can remain optimal. We tried to lead the same way.

After the first few frenetic months, I capped my own workday at nine hours. That boundary forced me to get honest about what could actually be done in the time I had — and prioritize ruthlessly. It also set a tone for the team. We adjusted scopes, redistributed work and held one another accountable for disconnecting at day’s end.

The expectation wasn’t endless effort — it was sustainable effort. That discipline kept burnout low and creativity high, even during our most demanding seasons. The consistency of our rest became as important as the intensity of our work. It gave us a rhythm we could trust — one that protected our momentum long after the crisis passed.

Readiness is the new stability

Now that the pandemic has passed, disruption has simply changed shape — AI, market volatility, new business models and the constant redefinition of “normal.” What hasn’t changed is the need for leaders who can act with speed and discipline at the same time.

For CIOs, that tension is sharper than ever. Technology leaders are being asked to deliver transformation at pace — without burning out their people or breaking what already works. The pressures that once felt exceptional have become everyday leadership conditions.

But you don’t have to be a Scrum shop or launch an enterprise Agile transformation to lead with agility. Agility is a mindset, not a method. To put the mindset into practice, focus on:

  • Shorter planning horizons
  • Faster, smaller decisions
  • Radical transparency
  • Language that brings alignment and calm
  • Boundaries that protect the energy of the team

These are the foundations of sustainable speed.

We built those practices in crisis, but they’ve become our default operating system in calmer times. They remind me that agility isn’t a reaction to change — it’s a readiness for it. And in a world where change never stops, that readiness may be a leader’s most reliable source of stability.

This article is published as part of the Foundry Expert Contributor Network.
Want to join?

LLMエージェント時代のプロダクトマネジメント──仕様は“振る舞い”から設計せよ

機能志向から「振る舞い志向」へのパラダイムシフト

従来のソフトウェア開発において、仕様とは機能と画面の一覧であることが多くありました。どのボタンを押すとどのAPIが呼ばれ、どのデータがどのように更新されるかを、フローチャートや画面遷移図で記述するやり方です。このアプローチは、入力と出力が厳密に定義できる決定論的なシステムに対しては非常に有効でした。

ところが、LLMエージェントは本質的に確率的なシステムです。同じ質問をしても、生成される文章は毎回少しずつ異なりますし、状況の変化やメモリの内容、外部ツールからのレスポンスによっても振る舞いが変わります。このようなシステムに対して「すべての入力パターンと出力を網羅する仕様書」を書こうとすると、すぐに破綻してしまいます。結果として、「なんとなく賢いアシスタントを入れてみたが、どうなっていれば成功なのか分からない」という状態に陥りがちです。

そこで必要になるのが、機能ベースではなく振る舞いベースの仕様設計です。重要なのは「このエージェントはどんな人格・役割を持ち、ユーザーから見てどのように振る舞ってほしいのか」を言語化することです。専門用語をどの程度使うのか、どこまで踏み込んだ提案をしてよいのか、分からないときに黙り込むのではなくどう質問し返すのか、といった対話上の振る舞いに加え、どの外部ツールをどの状況で使ってよいのか、どこから先は必ず人間の承認を挟むのかといった、権限や責任に関するルールも仕様の一部になります。

プロダクトマネージャーは、これらを自然言語で記述された「行動指針」として定義し、それをプロンプトやシステムメッセージ、ポリシーファイルとして実装チームと共有していく必要があります。従来の要件定義書に、人格設計や対話ポリシー、ツール利用ルールといった新しい章が追加されるイメージです。

仕様書としてのプロンプトとポリシー設計

LLMエージェントにおいて、プロンプトは単なる「その場しのぎの魔法の呪文」ではなく、仕様書そのものに近い役割を果たします。とくにシステムプロンプトやロール定義、ツールの説明文などには、プロダクトマネージャーが考え抜いた行動ポリシーが反映されるべきです。

たとえば、カスタマーサポート向けのエージェントを設計する場合、「顧客の感情を先に受け止める」「自社に非がある可能性を軽々しく認めないが、決して責任転嫁もしない」「法的な判断を伴う表現は必ず保留し、人間の担当者にエスカレーションする」といったニュアンスをプロンプトに埋め込むことができます。ここで有効なのは、抽象的な美辞麗句ではなく、実際にあり得る会話例を含めた具体的な指示です。良い応答例と悪い応答例を並べ、どちらを目指すかを明示することで、モデルの振る舞いは大きく変わります。

さらに、ツール利用ポリシーも仕様として明文化する必要があります。どのツールは読み取り専用なのか、どのAPIを呼ぶ際には必ずユーザーに確認を求めるのか、連続して外部サービスを叩きすぎないためのレート制限はどう設計するのかといった点を、プロダクトマネージャーがビジネス側・セキュリティ側の利害を調整しながら決めていきます。その結果は、エージェントのランタイム設定とプロンプト両方に反映されます。

このように、プロンプトとポリシーは「コードではない仕様」でありながら、システムの振る舞いを強く規定します。したがって、プロンプトの改訂は仕様変更そのものであり、変更管理やレビューのプロセスが必要です。誰がどの目的でプロンプトを更新し、それによってどの指標がどのように変化したのかを記録しておくことは、品質とガバナンスの両面から重要になっていきます。

評価・ロールアウト・組織体制の再設計

振る舞いベースの仕様を設計できたとしても、それが「良いかどうか」をどう評価するかという問題が残ります。LLMエージェントでは、一件一件の応答の正しさだけでなく、タスク全体としての成功率、ユーザーが節約できた時間、誤動作によるリスクの頻度と重大性など、複数の指標を組み合わせて判断する必要があります。

実務上は、まず限定されたユースケースを対象に、パイロットユーザーを相手にベータ運用を行うのが現実的です。その際、ユーザーにはなるべくそのままのログを残してもらい、どの場面でエージェントが役に立ち、どの場面でイラッとさせられたのかを定性的・定量的に分析します。プロダクトマネージャーは、その結果をもとに、プロンプトやツール構成、インターフェースを繰り返し調整していきます。評価指標としては、タスク完了までに必要なステップ数の減少、手動対応へのエスカレーション率、ユーザーの主観的満足度などが使われることが多くなります。

ロールアウトの戦略も、従来の機能リリースとは少し異なります。LLMエージェントは、権限の範囲によってリスクが大きく変わるため、最初は「提案のみ」「ドラフトのみ」といった控えめなモードで導入し、一定の実績が確認できてから「自動実行」の範囲を広げていく段階的なアプローチが望ましいでしょう。その過程で、ユーザー教育や利用ポリシーの明文化も並行して進める必要があります。

最後に、組織体制についても触れておく必要があります。LLMエージェントのプロダクトには、モデルのチューニングやプロンプト設計に詳しいメンバー、ドメイン知識を持つ業務側のメンバー、セキュリティ・法務の観点からリスクを見られるメンバーなど、多様な専門性が求められます。プロダクトマネージャーは、その橋渡し役として、技術とビジネスとガバナンスを統合する「翻訳者」のような存在になります。この新しい役割を自覚し、学び続けることが、LLMエージェント時代のPMに求められる最大の資質だと言えるでしょう。

Agents-as-a-service are poised to rewire the software industry and corporate structures

This was the year of AI agents. Chatbots that simply answered questions are now evolving into autonomous agents that can carry out tasks on a user’s behalf, so enterprises continue to invest in agentic platforms as transformation evolves. Software vendors are investing in it as fast as they can, too.

According to a National Research Group survey of more than 3,000 senior leaders, more than half of executives say their organization is already using AI agents. Of the companies that spend no less than half their AI budget on AI agents, 88% say they’re already seeing ROI on at least one use case, with top areas being customer service and experience, marketing, cybersecurity, and software development.

On the software provider side, Gartner predicts 40% of enterprise software applications in 2026 will include agentic AI, up from less than 5% today. And agentic AI could drive approximately 30% of enterprise application software revenue by 2035, surpassing $450 billion, up from 2% in 2025. In fact, business users might not have to interact directly with the business applications at all since AI agent ecosystems will carry out user instructions across multiple applications and business functions. At that point, a third of user experiences will shift from native applications to agentic front ends, Gartner predicts.

It’s already starting. Most enterprise applications will have embedded assistants, a precursor to agentic AI, by the end of this year, adds Gartner.

IDC has similar predictions. By 2028, 45% of IT product and service interactions will use agents as the primary interface, the firm says. That’ll change not just how companies work, but how CIOs work as well.

Agents as employees

At financial services provider OneDigital, chief product officer Vinay Gidwaney is already working with AI agents, almost as if they were people.

“We decided to call them AI coworkers, and we set up an AI staffing team co-owned between my technology team and our chief people officer and her HR team,” he says. “That team is responsible for hiring AI coworkers and bringing them into the organization.” You heard that right: “hiring.”

The first step is to sit down with the business leader and write a job description, which is fed to the AI agent, and then it becomes known as an intern.

“We have a lot of interns we’re testing at the company,” says Gidwaney. “If they pass, they get promoted to apprentices and we give them our best practices, guardrails, a personality, and human supervisors responsible for training them, auditing what they do, and writing improvement plans.”

The next promotion is to a full-time coworker, and it becomes available to be used by anyone at the company.

“Anyone at our company can go on the corporate intranet, read the skill sets, and get ice breakers if they don’t know how to start,” he says. “You can pick a coworker off the shelf and start chatting with them.”

For example, there’s Ben, a benefits expert who’s trained on everything having to do with employee benefits.

“We have our employee benefits consultants sitting with clients every day,” Gidwaney says. “Ben will take all the information and help the consultants strategize how to lower costs, and how to negotiate with carriers. He’s the consultants’ thought partner.”

There are similar AI coworkers working on retirement planning, and on property and casualty as well. These were built in-house because they’re core to the company’s business. But there are also external AI agents who can provide additional functionality in specialized yet less core areas, like legal or marketing content creation. In software development, OneDigital uses third-party AI agents as coding assistants.

When choosing whether to sign up for these agents, Gidwaney says he doesn’t think of it the way he thinks about licensing software, but more to hiring a human consultant or contractor. For example, will the agent be a good cultural fit?

But in some cases, it’s worse than hiring humans since a bad human hire who turns out to be toxic will only interact with a small number of other employees. But an AI agent might interact with thousands of them.

“You have to apply the same level of scrutiny as how you hire real humans,” he says.

A vendor who looks like a technology company might also, in effect, be a staffing firm. “They look and feel like humans, and you have to treat them like that,” he adds.

Another way that AI agents are similar to human consultants is when they leave the company, they take their expertise with them, including what they gained along the way. Data can be downloaded, Gidwaney says, but not necessarily the fine-tuning or other improvements the agent received. Realistically, there might not be any practical way to extract that from a third-party agent, and that could lead to AI vendor lock-in.

Edward Tull, VP of technology and operations at JBGoodwin Realtors, says he, too, sees AI agents as something akin to people. “I see it more as a teammate,” he says. “As we implement more across departments, I can see these teammates talking to each other. It becomes almost like a person.”

Today, JBGoodwin uses two main platforms for its AI agents. Zapier lets the company build its own and HubSpot has its own AaaS, and they’re already pre-built. “There are lead enrichment agents and workflow agents,” says Tull.

And the company is open to using more. “In accounting, if someone builds an agent to work with this particular type of accounting software, we might hire that agent,” he says. “Or a marketing coordinator that we could hire that’s built and ready to go and connected to systems we already use.”

With agents, his job is becoming less about technology and more about management, he adds. “It’s less day-to-day building and more governance, and trying to position the company to be competitive in the world of AI,” he says.

He’s not the only one thinking of AI agents as more akin to human workers than to software.

“With agents, because the technology is evolving so far, it’s almost like you’re hiring employees,” says Sheldon Monteiro, chief product officer at Publicis Sapient. “You have to determine whom to hire, how to train them, make sure all the business units are getting value out of them, and figure when to fire them. It’s a continuous process, and this is very different from the past, where I make a commitment to a platform and stick with it because the solution works for the business.”

This changes how the technology solutions are managed, he adds. What companies will need now is a CHRO, but for agentic employees.

Managing outcomes, not persons

Vituity is one of the largest national, privately-held medical groups, with 600 hospitals, 13,800 employees, and nearly 14 million patients. The company is building its own AI agents, but is also using off-the-shelf ones, as AaaS. And AI agents aren’t people, says CIO Amith Nair. “The agent has no feelings,” he says. “AGI isn’t here yet.”

Instead, it all comes down to outcomes, he says. “If you define an outcome for a task, that’s the outcome you’re holding that agent to.” And that part isn’t different to holding employees accountable to an outcome. “But you don’t need to manage the agent,” he adds. “They’re not people.”

Instead, the agent is orchestrated and you can plug and play them. “It needs to understand our business model and our business context, so you ground the agent to get the job done,” he says.

For mission-critical functions, especially ones related to sensitive healthcare data, Vituity is building its own agents inside a HIPAA-certified LLM environment using the Workato agent development platform and the Microsoft agentic platform.

For other functions, especially ones having to do with public data, Vituity uses off-the-shelf agents, such as ones from Salesforce and Snowflake. The company is also using Claude with GitHub Copilot for coding. Nair can already see that agentic systems will change the way enterprise software works.

“Most of the enterprise applications should get up to speed with MCP, the integration layer for standardization,” he says. “If they don’t get to it, it’s going to become a challenge for them to keep selling their product.”

A company needs to be able to access its own data via an MCP connector, he says. “AI needs data, and if they don’t give you an MCP, you just start moving it all to a data warehouse,” he adds.

Sharp learning curve

In addition to providing a way to store and organize your data, enterprise software vendors also offer logic and functionality, and AI will soon be able to handle that as well.

“All you need is a good workflow engine where you can develop new business processes on the fly, so it can orchestrate with other agents,” Nair says. “I don’t think we’re too far away, but we’re not there yet. Until then, SaaS vendors are still relevant. The question is, can they charge that much money anymore.”

The costs of SaaS will eventually have to come down to the cost of inference, storage, and other infrastructure, but they can’t survive the way they’re charging now he says. So SaaS vendors are building agents to augment or replace their current interfaces. But that approach itself has its limits. Say, for example, instead of using Salesforce’s agent, a company can use its own agents to interact with the Salesforce environment.

“It’s already happening,” Nair adds. “My SOC agent is pulling in all the log files from Salesforce. They’re not providing me anything other than the security layer they need to protect the data that exists there.”

AI agents are set to change the dynamic between enterprises and software vendors in other ways, too. One major difference between software and agents is software is well-defined, operates in a particular way, and changes slowly, says Jinsook Han, chief of strategy, corporate development, and global agentic AI at Genpact.

“But we expect when the agent comes in, it’s going to get smarter every day,” she says. “The world will change dramatically because agents are continuously changing. And the expectations from the enterprises are also being reshaped.”

Another difference is agents can more easily work with data and systems where they are. Take for example a sales agent meeting with customers, says Anand Rao, AI professor at Carnegie Mellon University. Each salesperson has a calendar where all their meetings are scheduled, and they have emails, messages, and meeting recordings. An agent can simply access those emails when needed.

“Why put them all into Salesforce?” Rao asks. “If the idea is to do and monitor the sale, it doesn’t have to go into Salesforce, and the agents can go grab it.”

When Rao was a consultant having a conversation with a client, he’d log it into Salesforce with a note, for instance, saying the client needs a white paper from the partner in charge of quantum.

With an agent taking notes during the meeting, it can immediately identify the action items and follow up to get the white paper.

“Right now we’re blindly automating the existing workflow,” Rao says. “But why do we need to do that? There’ll be a fundamental shift of how we see value chains and systems. We’ll get rid of all the intermediate steps. That’s the biggest worry for the SAPs, Salesforces, and Workdays of the world.”

Another aspect of the agentic economy is instead of a human employee talking to a vendor’s AI agent, a company agent can handle the conversation on the employee’s behalf. And if a company wants to switch vendors, the experience will be seamless for employees, since they never had to deal directly with the vendor anyway.

“I think that’s something that’ll happen,” says Ricardo Baeza-Yates, co-chair of the  US technology policy committee at the Association for Computing Machinery. “And it makes the market more competitive, and makes integrating things much easier.”

In the short term, however, it might make more sense for companies to use the vendors’ agents instead of creating their own.

“I recommend people don’t overbuild because everything is moving,” says Bret Greenstein, CAIO at West Monroe Partners, a management consulting firm. “If you build a highly complicated system, you’re going to be building yourself some tech debt. If an agent exists in your application and it’s localized to the data in that application, use it.”

But over time, an agent that’s independent of the application can be more effective, he says, and there’s a lot of lock-in that goes into applications. “It’s going to be easier every day to build the agent you want without having to buy a giant license. “The effort to get effective agents is dropping rapidly, and the justification for getting expensive agents from your enterprise software vendors is getting less,” he says.

The future of software

According to IDC, pure seat-based pricing will be obsolete by 2028, forcing 70% of vendors to figure out new business models.

With technology evolving as quickly as it is, JBGoodwin Realtors has already started to change its approach to buying tech, says Tull. It used to prefer long-term contracts, for example but that’s not the case anymore “You save more if you go longer, but I’ll ask for an option to re-sign with a cap,” he says.

That doesn’t mean SaaS will die overnight. Companies have made significant investments in their current technology infrastructure, says Patrycja Sobera, SVP of digital workplace solutions at Unisys.

“They’re not scrapping their strategies around cloud and SaaS,” she says. “They’re not saying, ‘Let’s abandon this and go straight to agentic.’ I’m not seeing that at all.”

Ultimately, people are slow to change, and institutions are even slower. Many organizations are still running legacy systems. For example, the FAA has just come out with a bold plan to update its systems by getting rid of floppy disks and upgrading from Windows 95. They expect this to take four years.

But the center of gravity will move toward agents and, as it does, so will funding, innovation, green-field deployments, and the economics of the software industry.

“There are so many organizations and leaders who need to cross the chasm,” says Sobera. “You’re going to have organizations at different levels of maturity, and some will be stuck in SaaS mentality, but feeling more in control while some of our progressive clients will embrace the move. We’re also seeing those clients outperform their peers in revenue, innovation, and satisfaction.”

CIOs take note: talent will walk without real training and leadership

Tech talent, especially with advanced and specialized skills, remains elusive. Findings from a recent IT global HR trends report by Gi Group show a 47% enterprise average struggles with sourcing and retaining talent. As a consequence, turnover remains high.

Another international study by Cegos highlights that 53% of 200 directors or managers of information systems in Italy alone say the difficulty of attracting and retaining IT talent is something they face daily. Cybersecurity is the most relevant IT problem but a majority, albeit slight, feels confident of tackling it. Conversely, however, only 8% think they’ll be able to solve the IT talent problem. IT team skills development and talent retention are the next biggest issues facing CIOs in Italy, and only 24% and 9%, respectively, think they can successfully address it.

“Talents aren’t rare,” says Cecilia Colasanti, CIO of Istat, the National Institute of Statistics. “They’re there but they’re not valued. That’s why, more often, they prefer to go abroad. For me, talent is the right person in the right place. Managers, including CIOs, must have the ability to recognize talents, make them understand they’ve been identified, and enhance them with the right opportunities.”

The CIO as protagonist of talent management

Colasanti has very clear ideas on how to manage her talents to create a cohesive and motivated group. “The goal I set myself as CIO was to release increasingly high-quality products for statistical users, both internal and external,” she says. “I want to be concrete and close the projects we’ve opened, to ensure the institution continues to improve with the contribution of IT, which is a driver of statistical production. I have the task of improving the IT function, the quality of the products released, the relevance of the management, and the well-being of people.”

Istat’s IT department currently has 195 people, and represents about 10% of the institute’s entire staff. Colasanti’s first step after her CIO appointment in October 2023 was to personally meet with all the resources assigned to management for an interview.

“I’ve been working at Istat since 2001 and almost everyone knows each other,” she says. “I’ve held various roles in the IT department, and in my latest role as CIO, I want to listen to everyone to gather every possible viewpoint. Because how well we know each other, I feel my colleagues have a high expectation of our work together. That’s why I try to establish a frank dialogue and avoid ambiguity. But I make it clear that listening doesn’t mean delegating responsibility. I accept some proposals, reject others, and try to justify choices.”

Another move was to reinstate the two problems, two solutions initiative launched in Istat many years ago. Colasanti asked staff, on a voluntary basis, to identify two problems and propose two solutions. She then processed the material and shared the results in face-to-face meetings, commenting on the proposals, and evaluating those to be followed up.

“I’ve been very vocal about this initiative,” she says, “But I also believe it’s been an effective way to cement the relationship of trust with my colleagues.”

Some of the inquiries related to career opportunities and technical issues, but the most frequent pain points that emerged were internal communication and staff shortages. Colasanti spoke with everyone, clarifying which points she could or couldn’t act on. Career paths and hiring in the public sector, for example, follow precise procedures where little could be influenced.

“I tried to address all the issues from a proactive perspective,” she says. “Where I perceived a generic resistance to change rather than a specific problem, I tried to focus on intrinsic motivation and people’s commitment. It’s important to explain the strategies of the institution and the role of each person to achieve objectives. After all, people need and have the right to know the context in which they operate, and be aware of how their work affects the bigger picture.”

Engagement must be built day by day, so Colasanti regularly meets with staff including heads of department and service managers.

Small enterprise, big concerns

The case of Istat stands out for the size of its IT department, but in SMEs, IT functions can be just a handful of people, including the CIO, and much of the work is done by external consultants and suppliers. It’s a structure that has to be worked with, dividing themselves between coordinating various resources across different projects, and the actual IT work. Outsourcing to the cloud is an additional support but CIOs would generally like to have more in-house expertise rather than depend on partners to control supplier products.

Attracting and retaining talent is a problem, so things are outsourced,” says the CIO of a small healthcare company with an IT team of three. “You offload the responsibility and free up internal resources at the risk of losing know-how in the company. But at the moment, we have no other choice. We can’t offer the salaries of a large private group, and IT talent changes jobs every two years, so keeping people motivated is difficult. We hire a candidate, go through the training, and see them grow only to see them leave. But our sector is highly specialized and the necessary skills are rare.”

The sirens of the market are tempting for those with the skills to command premium positioning, and the private sector is able to attract talent more easily than public due to its hiring flexibility and career paths.

“The public sector offers the opportunity to research, explore and deepen issues that private companies often don’t invest in because they don’t see the profit,” says Colasanti. “The public has the good of the community as its mission and can afford long-term investments.”

Training builds resource retention

To meet demand, CIOs are prioritizing hiring new IT profiles and training their teams, according to the Cegos international barometer. Offering reskilling and upskilling are effective ways to overcome the pitfalls of talent acquisition and retention.

“The market is competitive, so retaining talent requires barriers to exit,” says Emanuela Pignataro, head of business transformation and execution at Cegos Italia. “If an employer creates a stimulating and rewarding environment with sufficient benefits, people are less likely to seek other opportunities or get caught up in the competition. Many feel they’re burdened with too many tasks they can’t cope with on their own, and these are people with the most valuable skills, but who often work without much support. So if the company spends on training or onboarding new people who support these people, they create reassurance, which generates loyalty.”

In fact, Colasanti is a staunch supporter of life-long learning, and the experience that brings balance and management skills. But she doesn’t have a large budget for IT training, yet solutions in response to certain requests are within reach.

“In these cases, I want serious commitment,” she says. “The institution invests and the course must give a result. A higher budget would be useful, of course, especially for an ever-evolving subject like cybersecurity.”

The need for leadership

CIOs also recognize the importance of following people closely, empowering them, and giving them a precise and relevant role that enhances motivation. It’s also essential to collaborate with the HR function to develop tools for welfare and well-being.

According to the Gi Group study, the factors that IT candidates in Italy consider a priority when choosing an employer are, in descending order, salary, a hybrid job offer, work-life balance, the possibility of covering roles that don’t involve high stress levels, and opportunities for career advancement and professional growth.

But there’s another aspect that helps solve the age-old issue of talent management. CIOs need to recognize more of the role of their leadership. At the moment, Italian IT directors place it at the bottom of their key qualities. In the Cegos study, technical expertise, strategic vision, and ability to innovate come first, while leadership came a distant second. But the leadership of the CIO is a founding basis, even when there’s disagreement with choices.

“I believe in physical presence in the workplace,” says Colasanti. “Istat has a long tradition of applying teleworking and implementing smart working, which everyone can access if they wish. Personally, I prefer to be in the office, but I respect the need to reconcile private life and work, and I have no objection to agile working. I’m on site every day, though. My colleagues know I’m here.”

El MIT empieza a contabilizar los agentes de IA que ahora hacen trabajos que antes desempeñaban personas

El prestigioso instituto tecnológico estadounidense MIT ha comenzado a desarrollar un índice, llamado Iceberg, para realizar un seguimiento de los diferentes tipos de agentes de IA que ahora realizan trabajos que hasta ahora hacían humanos. La idea del centro es contabilizar los agentes de IA que hay en todo el mundo para obtener una visión más amplia de cómo la tecnología podría sustituir al trabajo humano.

Las cifras iniciales del índice indican que solo 13.000 agentes podrían exponer a 151 millones de trabajadores humanos, es decir, alrededor del 11,7% de la población activa, a la pérdida de puestos de trabajo o salarios.

Un artículo de investigación del MIT afirma que es necesario cuantificar la población de agentes de IA, que en última instancia podría superar a la población humana. La métrica ofrece una foto de cómo la era de la IA está cambiando la productividad, el desarrollo de habilidades y la creación y el desarrollo de puestos de trabajo.

Los investigadores del MIT cuentan que, dado que las cifras de empleo existentes de la Oficina de Estadísticas Laborales de EE. UU. miran hacia atrás y no hacia adelante, se necesita un índice de empleo de IA. Argumentan que los datos ofrecen una visión prospectiva de cómo la IA sustituirá a los trabajadores y ayuda a los líderes a planificar el desarrollo de habilidades y la inversión. “El mercado laboral está evolucionando más rápido de lo que los sistemas de datos actuales pueden captar”, afirman los investigadores, añadiendo que “los marcos de planificación de la mano de obra existentes se han diseñado para economías exclusivamente humanas”.

La pérdida de puestos de trabajo o salarios se debe a la automatización en las empresas, que ya se está produciendo, según señala el estudio. La IA se utiliza habitualmente para generar código y se está empleando para automatizar diversas tareas administrativas y de apoyo.

Los índices de empleo típicos cubren las cifras de pérdida de puestos de trabajo, pero no reflejan las oportunidades creadas por la IA en áreas como los mercados de trabajos esporádicos, los copilotos de IA y las redes de autónomos. “Para cuando estos cambios aparezcan en las estadísticas oficiales, es posible que los responsables políticos ya estén reaccionando a problemas del pasado, destinando miles de millones a programas que se centran en habilidades que ya han quedado obsoletas”, apuntan los investigadores.

El MIT se enfrenta a un gran reto, ya que predecir los puestos de trabajo creados y perdidos por la IA será una tarea difícil, según Jack Gold, analista de J. Gold Associates. “Está claro que la IA hace algunas cosas bien, pero también está claro que aún no comprendemos plenamente el alcance total de sus capacidades y sus inconvenientes”, afirma.

Es muy difícil hacer proyecciones más allá de unos pocos años vista, cuando la IA agentiva alcance su pleno desarrollo, según Gold. “Consideraría cualquier predicción como potencialmente poco precisa en esta fase temprana de la implantación de la IA”, afirma. En todo caso, según el experto, la IA tiene más potencial para ayudar que para sustituir a las personas en los próximos años, incluso cuando surja la IA física.

No obstante, la falta de datos sobre el empleo relacionado con la IA ya es motivo de preocupación en Estados Unidos. El pasado mes de septiembre, algunos de los principales economistas del país enviaron una carta al Departamento de Trabajo de los Estados Unidos pidiendo que “mejorara estos conjuntos de datos para ayudar a los responsables políticos y a los investigadores a evaluar mejor cómo la IA está transformando los mercados laborales”. Las cifras ayudarán a recopilar datos económicos de alta calidad que servirán de base para las políticas destinadas a abordar los problemas laborales que genera la IA, según los economistas. Entre los firmantes del escrito se encontraban Ben Bernanke y Janet Yellen, antiguos presidentes de la Reserva Federal de los Estados Unidos.

Según recientes estadísticas de empleo de Challenger, Gray and Christmas unos 153.074 puestos de trabajo han sido eliminados por la IA. Muchos de ellos eran puestos considerados superfluos en las empresas y puestos de nivel inicial. Varias empresas, entre ellas Amazon y Meta, han estado reduciendo su plantilla mientras aumentaban las inversiones en IA. Las empresas están implantando poco a poco agentes de IA para la gestión del conocimiento, las tareas administrativas y el control de calidad.

BASF Agricultural Solutions, por ejemplo, ha desplegado mil agentes Copilot (de Microsoft), mientras que EY tiene 41.000 agentes en producción, según expusieron recientemente ejecutivos de estas empresas en una mesa redonda celebrada en el evento Ignite de Microsoft, que tuvo lugar el mes pasado en Estados Unidos. Sin embargo, las herramientas de IA que se utilizan actualmente tienen como objetivo aumentar la productividad humana, en lugar de sustituirla, según indicaron los participantes en dicho debate.

Los investigadores del MIT no han respondido ante la petición de declaraciones realizada por este medio.

HPE CEO 네리, 주니퍼 인수 효과 공개···네트워크·AI 결합 가속



HPE가 HP에서 분리돼 독립적인 여정을 시작한 지 10년이 지난 시점에, 최고경영자 안토니오 네리는 12월 3와 4일 바르셀로나에서 열린 HPE의 주요 연례 유럽 행사 무대에 올랐다. 네리는 이 자리에서 네트워크, 클라우드, 인공지능(AI)이라는 세 가지 기술 축을 중심으로 한 HPE의 로드맵을 공개했다.

네리는 HPE 디스커버 바르셀로나 2025 행사에 참석한 6,000여 명의 청중을 향해 “지난 10년 동안 우리가 함께 만들어낸 성과가 매우 자랑스럽다”라며 “앞으로 펼쳐질 변화는 더욱 기대된다”라고 말했다.

HPE가 제시한 세 축의 전략은 오늘날 기업이 직면한 핵심 IT 과제를 해결하기 위한 것이다. 네리에 따르면 기업들은 여전히 레거시 인프라 처리, 데이터 주권 확보, 지속적으로 증가하는 비용 관리, AI 확산으로 높아진 컴퓨팅 수요 등의 도전에 맞서고 있다.

특히 주니퍼네트웍스(Juniper Networks)를 지난해 7월 인수하며 크게 강화된 네트워크 기술은 이번 바르셀로나 행사에서 핵심 요소로 부각됐다.

주니퍼의 전 CEO이자 현재 HPE 네트워킹 사업 총괄을 맡고 있는 라미 라힘은 행사에 참석해 양사 통합의 첫 기술 성과를 소개했다. 양사의 네트워크 관리 플랫폼에 새로운 AI 기반 운영 기능을 통합하고, 공동 하드웨어를 처음으로 공개한 것이다.

라힘은 “지금처럼 네트워크의 중요성이 높아진 시기는 없었다”라고 말하면서, 이제 네트워크의 목표는 단순 연결이 아니라 ‘자율적 관리’라고 설명했다. 그는 네트워크가 스스로 구성·최적화·복구하는 방향으로 나아가야 한다고 강조하며, AI로 설계되고 AI를 위한 네트워크가 증가하는 기기 연결, 복잡해지는 환경, 고도화되는 보안 위협을 처리할 수 있다고 밝혔다.

네리는 “라미와 내가 가진 공통의 목표는 네트워킹 분야에서 새로운 리더를 만드는 것”이라고 말했다. 그는 주니퍼 인수 후 5개월 만에 HPE가 이미 이전 경쟁사였던 주니퍼 기술과 2015년 인수한 아루바 솔루션을 결합한 커넥티비티 제품을 시장에 제공하고 있다고 설명했다. 이어 “앞으로는 양사가 각각 무엇을 하고 있는지조차 구분되지 않을 것”이라며, “기본적인 이중 설계를 이미 지원하고 있다는 사실은 두 조직이 얼마나 빠르게 하나로 융합되고 있으며, 동시에 HPE의 혁신 역량이 어떻게 활용되고 있는지를 잘 보여준다”라고 덧붙였다.

HPE의 주니퍼 인수, 복잡한 과정을 거치다

140억 달러(약 20조 원) 규모의 HPE의 주니퍼 인수는 단순한 거래가 아니라 매우 복잡하고 긴 여정이었다. 2024년 1월 인수 계획이 발표됐지만 최종 거래는 2025년 7월에 이르러서야 마무리됐다. 미국에서는 특히 논란도 적지 않았다. 미국 법무부(DOJ)가 이번 인수가 네트워크 장비 시장, 특히 무선랜(WLAN) 분야의 경쟁을 약화시킨다며 소송을 제기했기 때문이다.

이번 인수 승인 과정에서 겪은 난관과 여전히 남아 있는 미국 내 비판에 대해 파운드리 산하 언론사 컴퓨터월드의 질문을 받은 네리는 먼저 “미국을 제외한 국가에서는 통상적인 6개월 내 승인이 완료됐다”라고 설명했다. 2024년 여름에는 3개국만 승인이 남아 있었고, 그중 2개국은 다음 3개월 내 승인을 마쳤다는 것이다. 네리는 미국의 경우 “선거와 행정부 교체라는 변수가 있었고, 이후 절차가 다시 진행됐다”라고 덧붙였다.

네리는 이번 사례를 분석하면서 “미국 법무부는 캠퍼스와 지사 시장, 특히 무선 분야에서 경쟁사가 3곳에서 2곳으로 줄어들 것으로 판단했다”라고 말했다. 하지만 실제 시장은 그보다 훨씬 크다는 게 네리의 설명이다. 그는 “미국 시장만 보더라도 시스코, 주니퍼, HPE, 캄비움네트웍스(Cambium Networks), 유비쿼티(Ubiquity), 아리스타(Arista) 등 7~8개 업체가 경쟁하고 있다”라며 산업군별로 강점이 다르고 대기업 시장과 공공 부문에서도 경쟁 구도가 다르다고 언급했다. 이어 “여러분(기자들)이 보도하는 시장점유율만 봐도 시장 규모가 크고 매우 분산돼 있다는 사실을 확인할 수 있다”라고 말했다.

결국 미국 법무부와는 “상호에 도움이 되는 건설적인 과정을 거쳤다”라고 네리는 설명했다. 그는 “이번 인수 시장은 경쟁을 촉진하는 환경임을 입증했다”라며, 미국의 대형 M&A 최종 심사 단계에서도 고객이나 경쟁사로부터 어떠한 이의 제기도 받지 않았다고 강조했다.

AI와 클라우드에 집중되다

바르셀로나에서 네리는 최근 몇 달 동안 HPE가 클라우드와 AI 분야에서 이뤄낸 기술적 진전을 강조했다. 그는 AI를 “전형적인 하이브리드 워크로드”라고 규정하면서, 두 기술이 불가분하게 연결돼 있다고 설명했다.

네리는 사용량 기반 모델로 시작해 현재 전 세계 4만 6,000명 고객을 확보한 하이브리드 클라우드 플랫폼 그린레이크(GreenLake)를 소개하며, 여기에 자율 에이전트 기반 프레임워크 ‘그린레이크 인텔리전스(GreenLake Intelligence)’와 같은 AI 기능을 추가할 계획이라고 밝혔다. 이 기능은 지난 6월 HPE가 발표한 것으로, 하이브리드 클라우드 환경에서 IT 운영을 자동화하고 단순화하는 데 초점을 둔다. 네리는 “IT 운영 단순화의 미래가 이미 도착했다”라고 말했다.

네리는 또 HPE의 에어갭 기반 프라이빗 클라우드 전략이 EU처럼 규제가 강한 지역, 그리고 군과 같이 민감 데이터가 중요한 전략 분야에서 큰 의미가 있다고 강조했다.

네리는 바르셀로나에서 공개된 또 하나의 솔루션에도 주목했다. AMD의 ‘헬리오스(Helios)’ 랙 스케일 AI 아키텍처가 이더넷 네트워킹과 통합된 첫 사례다. 그는 이 솔루션이 주니퍼의 연결 하드웨어와 소프트웨어, 브로드컴 토마호크6 네트워킹 칩을 결합해 “수조 개 매개변수 모델의 학습 트래픽, 높은 추론 처리량, 초대형 모델을 지원할 수 있다”라고 설명했다. 이 구성은 HPE 서비스팀이 공급한다.

네리는 또한 슈퍼컴퓨팅 분야에서 HPE가 보유한 강력한 입지도 강조했다. 이는 2019년 슈퍼컴퓨터 전문 기업 크레이(Cray)를 인수하며 확보한 기반이 크게 작용했다. 그는 “HPE는 세계에서 가장 큰 슈퍼컴퓨터 6대를 구축한 기업이며 이 분야의 글로벌 선도 기업”이라고 말했다. 다만 “AI 수요가 그 어느 때보다 커졌지만 모든 기업이 이를 처리하기 위해 슈퍼컴퓨터가 필요한 것은 아니다”라며, 그러나 “모든 기업에는 안전한 AI 스택이 필요하다”라고 덧붙였다.

HPE는 이러한 요구에 대응하기 위해 엔비디아와 협력해 프라이빗 클라우드 환경에서 생성형 AI 애플리케이션 개발·배포를 가속화하는 통합 인프라 솔루션 ‘HPE 프라이빗 클라우드 AI’를 제공하고 있다. 네리는 이 솔루션이 “법적 데이터 요구사항을 충족하며”, 동시에 AI 혁신의 핵심 과제인 “시간, 비용, 위험”을 해결하는 데 초점을 맞춘다고 설명했다. 그는 여기에 더해 HPE가 최근 엔비디아와 AMD와 함께 AI 구축을 가속화하는 고성능 네트워킹 솔루션을 추가했다고 바르셀로나에서 밝혔다.

본사업 기반 성장과 M&A 기반 확장

HPE가 지난해 9월 회계연도 3분기 실적 발표에서 제시한 전망에 따르면, 회사는 2025 회계연도(10월 31일 종료) 매출이 고정 환율 기준 14~16% 증가할 것으로 예상하고 있다. 2024 회계연도 매출은 301억 달러(약 44조 원)로, 2023년 대비 3.4% 증가했다.

네리의 리더십 아래 HPE는 총 35건의 인수를 진행했다. 네리는 바르셀로나 기자회견에서 이를 직접 상기시키며, 앞서 언급한 주니퍼네트웍스와 크레이 외에도 여러 주요 인수를 나열했다.

2020년에는 SD-WAN 기업 실버피크(Silver Peak)를, 2021년에는 데이터 보호 및 재해복구 기업 제르토(Zerto)를 인수했다. 2023년에는 보안 및 IT 운영 분야의 액시스시큐리티(Axis Security)와 옵스램프(OpsRamp)를 추가했으며, 2024년에는 하이브리드 클라우드 관리 기업 모르페우스데이터(Morpheus Data)를 인수했다.

네리는 “우리는 포트폴리오를 보완하고 목표 시장에서 규모를 확장할 수 있는 적절한 자산을 찾고 있다”라며 “이 자산은 매출과 수익 측면에서 타당해야 하며, 동시에 주주들에게 가치도 제공해야 한다”라고 말했다.
dl-ciokorea@foundryco.com


칼럼 | 단일형 ERP의 종말···조립형 아키텍처가 기업 민첩성을 좌우한다

필자가 ERP 현대화 프로젝트를 이끌고 IT 및 비즈니스 임원들과 협력해 온 경험을 돌이켜보면, 성공을 결정짓는 요인은 기술 그 자체가 아니라 사고방식과 아키텍처였다. 가트너는 “2027년까지 새롭게 구축된 ERP 프로젝트의 70% 이상이 초기 비즈니스 케이스 목표를 온전히 달성하지 못할 것”이라고 전망하기도 했다. 이제 ERP 성공은 근본적으로 다른 아키텍처를 요구하고 있다.

수십 년 동안 ERP는 재무, 공급망, 제조, HR 등 기업 운영의 중심에 자리해 왔다. 통합과 통제를 약속했던 이 시스템은 지금 유연성을 억누르고 혁신 속도를 늦추며 기술 부채를 쌓는 구조로 변질되고 있다.

여러 ERP 프로그램을 지켜본 경험에 따르면 문제는 ERP 자체가 아니라 ERP를 대하는 우리의 관점에 있다. 많은 기업이 ERP를 단순한 기록 시스템으로 취급하며, 그 너머에 있는 더 큰 기회를 놓치고 있다.

다가올 비즈니스 민첩성의 시대는 ERP를 모듈형, 데이터 중심, 클라우드 네이티브, AI 기반의 조립형 플랫폼으로 재정의하는 기업이 주도하게 될 것이다. 필자가 함께해 온 여러 조직에서도 기술 리더들은 현대화 여부를 두고 논쟁하지 않는다. 오히려 ‘사업을 멈추지 않고 어떻게 실행할 것인가’가 핵심 과제가 되고 있다.

포브스의 한 칼럼에서는 이러한 변화를 두고 “전 세계 기업의 75%가 유연성과 확장성을 확보하기 위해 기존 단일형 ERP를 모듈형 솔루션으로 대체하기 시작할 것”이라고 표현했다. 이는 ERP가 레거시 단일 제품에서 적응형·혁신 중심 플랫폼으로 진화하고 있음을 보여준다.

이 흐름을 수용한 기업은 ERP를 혁신의 촉매로 만들 수 있다. 반대로 전환에 실패한 기업은 핵심 시스템이 가장 큰 병목으로 남은 채 뒤처질 위험을 안게 된다.

단일형에서 모듈형 백본으로의 전환

1990~2000년대 ERP는 단일 벤더, 단일 코드베이스, 그리고 기업 전 영역을 아우르는 초대형 구축 프로젝트를 의미했다. 기업들은 모든 프로세스의 세부적인 요구사항을 맞추기 위해 수백만 달러를 투입해 소프트웨어를 커스터마이징했다.

클라우드 시대가 도래하면서 다음 장이 열렸다. SAP, 오라클, 마이크로소프트(MS), 인포 등은 포트폴리오를 SaaS 중심으로 전환했고, 업종 특화 모듈형 ERP 플랫폼을 앞세운 스타트업들도 잇따라 등장했다. API와 서비스 개념이 확산되면서 비즈니스 변화에 맞춰 진화하는 ERP가 가능하다는 기대가 본격적으로 자리 잡았다.

필자가 참여한 한 전환 프로젝트에서는 ERP를 단일 구현체로 취급하던 관점을 내려놓은 순간 변화가 시작됐다. 기능을 모듈 단위로 분해해 비즈니스 팀이 직접 소유하고 독립적으로 발전시킬 수 있도록 구조를 재설계한 것이 결정적인 전환점이었다.

그러나 많은 기업에서 이러한 가능성은 완전히 실현되지 못했다. 이제 문제는 기술이 아니라 사고방식이다. 여전히 상당수 조직이 ERP를 성장하고 적응해야 하는 ‘살아 있는 플랫폼’이 아니라, 한번 설치하면 끝나는 ‘완료된 시스템’으로 바라보고 있다.

기존 사고방식이 초래하는 비용

레거시 ERP 관점으로는 오늘날 변화 속도를 따라갈 수 없다. 그 결과 혁신은 늦어지고, 데이터는 파편화되며, IT 조직은 끊임없이 뒤처진 상태를 만회하느라 소모전을 반복하게 된다. 기업은 비즈니스 변화만큼 빠르게 움직일 수 있는 아키텍처를 필요로 하고 있다.

린IX는 가트너 분석을 인용해 “조립형 IT 접근법을 채택한 조직은 새로운 기능 구현 속도가 80% 빨라진다. 특히 가트너가 정의한 조립형 ERP 플랫폼을 적용할 때 이 효과가 두드러진다”라고 설명했다. 모듈형 ERP와 전통적인 단일형 ERP 사이의 뚜렷한 성능 격차를 보여준다는 의미이기도 하다.

필자가 실제 프로젝트에서 확인한 레거시 ERP 사고방식의 비용은 다음과 같다.

유연성 부족: 비즈니스 모델은 소프트웨어 주기보다 빠르게 변하며, 전통적 ERP는 그 속도를 따라가지 못한다.
과도한 커스터마이징: 수년간 축적된 맞춤형 코드는 업그레이드를 위험하고 비용 높은 작업으로 만든다.
데이터 파편화: 여러 ERP 인스턴스와 분리된 모듈은 데이터 일관성을 깨고 분석 신뢰도를 떨어뜨린다.
사용자 불만: 노후화된 인터페이스는 우회 작업을 부르고 사용자 참여를 떨어뜨린다.
높은 TCO: 유지보수와 업그레이드에 예산이 잠식되면서 혁신 투자 여력이 사라진다.


조립형 ERP의 등장

새롭게 부상하는 조립형 ERP 모델은 이러한 단일형 구조를 해체한다. 가트너는 이를 “모듈형 구성 요소를 기반으로 API로 연결되고 데이터 패브릭으로 통합되는 아키텍처”라고 정의한다.

SAP에 인수된 아키텍처 관리 도구 기업 린IX(LeanIX)는 “모듈형·상호운용 구성요소로 구축된 조립형 ERP는 단일형 제품군에 의존하지 않고 필요한 기능을 조립하듯 구성해 변화에 빠르게 대응할 수 있다”고 설명한다. 이는 정적인 ERP에서 동적이고 적응적인 비즈니스 플랫폼으로의 전환을 보여준다.

맞춤 개발과 패키지형 ERP 양쪽을 경험한 필자로서는 조립형 접근의 진정한 힘이 단순한 ‘통합’이 아니라 ‘조립 속도’에 있다는 점을 확인해 왔다. ERP를 단일 제품군이 아니라 기업 운영을 가능하게 하는 기반 시스템으로 바라보는 관점이 중요하다. 재무, 공급망, 제조, HR 같은 핵심 프로세스는 기반으로 두고, AI 예측, 고객 분석, 지속가능성 추적 같은 모듈형 기능은 비즈니스 변화에 따라 동적으로 연결할 수 있다.

이 접근 방식은 기업에 다음과 같은 이점을 제공한다.

• 서로 다른 벤더 또는 내부 개발팀의 모듈을 조합
• 불안정한 커스터마이징 대신 표준 API 기반의 클라우드 앱 통합
• 자동화·인사이트·예측 의사결정에 AI 활용
• 역할 기반(persona-based) 경험 제공

페르소나: 조립형 ERP가 드러내는 ‘사용자 중심’의 얼굴

전통적인 ERP는 모든 사용자를 동일하게 취급해 하나의 인터페이스에 수백 개 메뉴와 끝없는 입력 화면을 쌓아 올렸다. 조립형 ERP는 이를 뒤집어 각 역할이 실제로 수행해야 하는 업무를 중심으로 설계된 ‘페르소나 기반 디자인’을 적용한다.

CFO는 AI 기반 시나리오 모델링을 통해 조직 전반의 재무 건전성을 실시간으로 확인한다.
공급망 리더는 실시간 수요 신호, 공급업체 성과, 지속가능성 지표를 모니터링한다.
공장 관리자는 IoT 기반 설비 상황, 예지정비 정보, 생산 KPI를 추적한다.
영업 및 서비스 팀은 시스템을 이동할 필요 없이 운영 데이터를 끊김 없이 활용한다.

필자의 경험상 ERP가 범용 트랜잭션이 아니라 실제 사용자 페르소나 중심으로 설계될 때 도입 효과가 높아지고 의사결정 속도도 빨라졌다.


도전과 함정

이 문제들은 이론적 논의가 아니라 IT와 비즈니스 조직이 매일 마주하는 실제 과제들이다.

데이터 거버넌스: 통합된 데이터 전략이 없으면 모듈성은 곧 혼란으로 이어진다.
통합 복잡성: API는 버전 관리, 인증, 의미 체계 정렬 등 엄격한 규율이 필요하다.
벤더 종속: 개방형 플랫폼이라도 미묘한 의존성이 생길 수 있다.
변화 관리: 직원은 기존 습관을 버리고 새로운 방식을 익히기 위한 지원과 교육이 필요하다.
보안: 시스템 간 연결이 확대될수록 공격 표면도 넓어진다. 제로트러스트 전략은 필수다.

진정한 성공은 기술적 통찰과 조직에 대한 공감 능력을 균형 있게 갖춘 리더십에서 나온다.


CIO의 새로운 플레이북

수년간 ERP 프로젝트를 수행하고 비즈니스·IT 조직과 협업해 온 경험을 돌아보면, ERP 성공을 가로막는 가장 큰 장애물은 ERP를 끊임없이 진화하는 혁신 플랫폼이 아니라 ‘완성된 시스템’으로 믿는 고정관념이었다.

이 변화는 도구의 문제가 아니라, ERP가 비즈니스 안에서 수행해야 할 역할을 재정의하는 문제다. 맥킨지는 “ERP 코어의 현대화는 단순한 기술 업그레이드가 아니라 기업 전반의 새로운 역량을 가능하게 하는 비즈니스 변혁”이라고 설명한다. 특히 현대화를 이끄는 CIO라면 완전히 새로운 플레이북이 필요하다는 의미다.

  1. 소프트웨어가 아닌 비즈니스 아키텍처에서 출발한다. 기업이 어떻게 운영되길 원하는지 정의한 뒤, 그 구조에 맞춰 ERP 역량을 설계한다.
  2. 통합 데이터 패브릭을 구축한다. 조립형 ERP의 성패는 일관되고 품질 높은 데이터에 달려 있다.
  3. 모듈형 사고를 점진적으로 적용한다. 소규모 파일럿으로 가치를 입증한 후 확장한다.
  4. 퓨전팀을 강화한다. IT·운영·비즈니스 전문가를 하나의 애자일 팀으로 묶어 빠르게 솔루션을 조합한다.
  5. 성공 기준을 ‘오픈일’이 아니라 결과로 측정한다. 목표는 단일 런치가 아니라 민첩성과 회복탄력성이다.
  6. 벤더에 개방성을 요구한다. 공개 API와 진정한 상호운용성을 확보하고, 독점적 클라우드 라벨에 의존하지 않는다.

오라클은 이러한 필요성을 강조하며 “기업은 변화에 적응할 수 있는 조립형 애플리케이션 포트폴리오로 이동해야 하며, 이는 재조립·확장이 가능한 구조여야 한다”라고 설명했다. 이는 ERP 선택 기준에서 유연성이 핵심 요소가 돼야 함을 의미한다.

ERP를 혁신 플랫폼으로 재정의해야 한다. 로우코드 워크플로우, 분석, AI 기반 보조 도구 등 새로운 방식을 실험하는 문화를 장려해야 한다.


ERP가 ‘보이지 않게’ 되는 때

몇 년 후에는 ERP라는 용어조차 사용하지 않을 가능성이 크다. CRM이 고객 경험 플랫폼으로 확장됐듯, ERP도 기업의 보이지 않는 디지털 백본으로 자연스럽게 녹아들 것이다.

필자는 ERP가 온프레미스에서 클라우드, 그리고 AI 기반 플랫폼으로 진화하는 과정을 지켜봤다. 가까운 미래에는 AI가 트랜잭션과 워크플로우를 백엔드에서 처리하고, 직원들은 대화형 인터페이스와 내장 분석 기능을 통해 결과만 요청하게 될 것이다. 시스템에 로그인하는 대신 원하는 업무 결과를 말하면, 조립형 ERP 패브릭이 이를 수행하는 데 필요한 모든 단계를 동적으로 조율하는 방식이다.

이 미래는 지금 ERP를 재정의하는 기업이 차지하게 된다. 이는 단순한 업그레이드 주기가 아니라 기업 운영 방식을 다시 설계하는 과정이다.


기록 중심에서 가치 창출 중심으로

ERP는 한때 재고 관리, 마감 처리, 프로세스 통제 등 효율성 중심의 시스템이었다. 오늘날 ERP는 회복탄력성과 혁신을 견인하는 구조로 변화하고 있다. 필자는 여러 ERP 프로그램을 경험하며, CIO의 진짜 과제는 단순히 시스템을 유지하는 것이 아니라 기업 운영 방식 자체에 ‘민첩성’을 구조적으로 설계하는 일이라는 점을 확인해 왔다.

클라우드·AI·사람 중심 설계를 기반으로 하는 조립형 ERP는 이러한 전환을 위한 청사진이다. ERP를 기록 시스템에서 혁신 시스템으로 바꾸며, 시장 변화 속도에 맞게 끊임없이 진화할 수 있도록 만든다.

기회는 분명하다. 지금 변화를 주도할 것인가, 아니면 어제의 아키텍처에 머무른 채 내일의 기업을 만들어가는 이들을 바라볼 것인가. 함께 생각해 볼 질문이다.
dl-ciokorea@foundryco.com



오픈AI, ‘넵튠’ 인수로 AI 학습 추적 도구 내재화

오픈AI는 AI 학습 과정을 추적하는 도구를 개발해온 스타트업 넵튠(Neptune)을 인수하기로 합의했으며, 넵튠은 곧바로 자사 제품을 시장에서 철수한다고 3일 공식 발표했다.

챗GPT 개발사인 오픈AI는 1년 넘게 넵튠의 고객으로 이 플랫폼을 사용해온 것으로 알려졌다.

넵튠과 같은 실험 추적 도구는 데이터 과학팀이 AI 모델 학습 실행을 모니터링하고, 다양한 설정 간 결과를 비교하며, 개발 과정에서 발생하는 문제를 식별하도록 돕는다. 넵튠 플랫폼은 모델이 학습 과정에서 얼마나 오차를 줄이고 있는지를 보여주는 손실 곡선, 가중치가 어떻게 변하고 있는지를 나타내는 그래디언트(gradient) 통계, 모델 내부의 뉴런이 입력에 어떻게 반응하는지를 보여주는 활성화 패턴 등 주요 지표를 수천 건의 동시 실험에서 추적해왔다.

넵튠이 시장에서 철수함에 따라 SaaS 버전 사용자는 데이터를 내보내고 다른 플랫폼으로 이동할 수 있도록 몇 개월의 유예 기간을 갖게 된다. 넵튠은 이 기간 동안 안정성과 보안 패치를 제공하지만 새로운 기능은 추가되지 않는다고 설명했다. 넵튠은 전환 안내 페이지에서 “2026년 3월 4일 오전 10시(태평양 표준시)에 호스팅 앱과 API가 종료되며, 남아 있는 모든 데이터는 안전하게 영구 삭제된다”라고 밝혔다.

셀프 호스팅 형태로 사용하는 고객에 대해서는 계정 담당자가 별도로 연락을 취한 상태라고 회사는 전했다.

통합에 대한 우려

이번 결정은 AI 개발 도구 시장에서 벤더 통합이 가속화할 수 있다는 분석가들의 우려를 불러왔다. 컨설팅 기업 테크아크(Techarc)의 수석 애널리스트 파이살 카우는 “테스트나 실험 추적 도구 등은 AI를 포함한 어떤 기술 벤더에도 연결되거나 종속돼서는 안 된다”라며 “이런 플랫폼은 항상 제3자 형태로 남아야 하며, 독립적이고 중립적인 결과에 영향을 미치는 편향이 있어서는 안 된다”라고 말했다.

카우사는 AI 업계가 아직 명확한 발전 방향을 정하지 못한 만큼, 도구 인프라 통합은 시기상조라고 지적했다. 그는 “AI의 확실한 향방이 정해지지 않은 상황에서 지금 도구 인프라를 통합하자는 논의는 너무 이르다”라고 언급했다.

반면, 또 다른 컨설팅 기업 무어 인사이트&스트래티지(Moor Insights & Strategy)의 수석 애널리스트 안셸 새그는 업계가 성숙 단계로 접어들면서 자연스럽게 나타나는 흐름으로 평가했다. 새그는 “오픈AI가 내부에서 꾸준히 활용하고 싶은 도구를 안정적으로 확보하기 위한 결정처럼 보인다”라고 분석했다.

오픈AI는 논평 요청에 즉각 응답하지 않았다.

넵튠은 모델 개발 과정에서 학습 지표를 추적하고 문제 징후를 드러내며, 이전 실험의 기록 데이터를 보관하는 소프트웨어를 제공한다. 이 플랫폼은 다양한 모델 구조에서의 학습 실행을 비교하고, 수천 건의 실험을 동시에 모니터링할 수 있도록 지원한다.

넵튠의 최고경영자 피오트르 니에즈비에치는 이번 인수를 알리는 블로그 글에서 자사의 역할을 “반복적이고 복잡하며 예측하기 어려운 모델 학습 단계에서 팀이 모델을 구축하도록 지원하는 것”이라고 설명했다.

관련 고객을 위한 선택지

새그는 넵튠과 같은 기능을 제공하는 기업이 이외에도 존재한다며, 웨이츠앤드바이어시스(Weights & Biases), 텐서보드(TensorBoard), ML플로우(MLflow) 등이 이 시장에서 활발히 활동 중이라고 설명했다.

실제로 넵튠은 사용자가 데이터를 내보내 ML플로우 또는 웨이츠앤드바이어시스로 이전할 수 있도록 안내 문서를 제공했다.

웨이츠앤드바이어시스는 시각화 및 협업 기능을 포함한 관리형 플랫폼을 제공하며, 데이터브릭스가 개발한 오픈소스 ML플로우는 머신러닝 라이프사이클 전반을 다루는 플랫폼의 일부로 실험 추적 기능을 지원한다.

또 다른 대안으로는 코멧(Comet)이 있으며, 이 플랫폼은 실험 추적 기능과 함께 배포 모니터링 기능도 제공한다.

클라우드 서비스 제공업체들도 자체 플랫폼을 통해 실험 추적 기능을 제공하고 있다. 구글의 버텍스 AI(Vertex AI)는 구글 클라우드를 사용하는 팀을 위한 추적 기능을 지원하며, AWS의 세이지메이커(SageMaker)와 마이크로소프트 애저 머신러닝(Azure Machine Learning) 역시 각각의 생태계에서 유사한 기능을 제공한다.
dl-ciokorea@foundryco.com

“AI 시장, 골드러시에 조정으로” 기업과 솔루션 업체 모두 속도 줄인다

AI 시장이 지나치게 과열된 탓이든, 기업 CIO들이 구매 계획을 축소하기로 결정했기 때문이든, 마이크로소프트와 오픈AI를 비롯한 주요 AI 서비스 업체가 매출 전망을 하향 조정하는 움직임이 나타나고 있다.

더인포메이션(The Information)은 여러 영업 조직이 목표를 달성하지 못한 이후 마이크로소프트가 일부 제품의 AI 영업 할당량을 줄였다고 보도하면서, 복잡한 업무를 자동화하는 AI 에이전트에서 기대한 매출에 대한 전망을 “조정하고 있는” 기업이 마이크로소프트만이 아니라고 전했다. 보도에 따르면, 오픈AI는 향후 5년 동안 AI 에이전트 매출 전망을 260억 달러 규모로 하향 조정했다.

그레이하운드 리서치(Greyhound Research)의 최고 애널리스트 산치트 비르 고기아는 “AI 영업 할당량 축소는 시장 위기의 전조가 아니라, 지난 1년 동안 구조적인 산업 전환이라기보다 골드러시 같은 열풍이 이어졌던 상황이라 엔터프라이즈 기술 시장이 마침내 현실로 돌아오고 있다는 신호”라고 말했다.

고기아는 “지난 18개월 동안 많은 업체가 고객이 현실적으로 소화할 수 있는 수준을 훨씬 뛰어넘는 공격적인 목표를 설정했다”면서 “엔터프라이즈 구매 담당자는 이런 도구를 충분히 시험해 보거나 통합 복잡성을 점검하거나, 복잡하게 얽힌 자사 시스템 안에서 약속한 효과가 실제로 유지되는지 평가해 볼 기회도 갖지 못한 채 다년간 AI에 투자하라는 요구를 받았다”라고 지적했다.

과대포장에서 한발 물러서는 기업 고객

고기아는 영업 압박이 느슨해지는 현상에 대해 “급한 쪽으로 너무 기울어 있던 대화의 균형을 되찾는 건강한 움직임”이라고 평가했다. 또 “이번 조정의 핵심은 솔루션 업체가 내세운 약속과 엔터프라이즈 사용 경험 사이의 격차다. 구매자가 AI를 포기하는 것이 아니라, 과대광고에서 한 발 물러서는 것”이라고 덧붙였다.

기업은 이미 가치가 입증된 곳에만 투자하기로 선택하고 있다. 고기아는 “2023년부터 2025년까지 그레이하운드 리서치 조사 결과를 보면, 대부분 조직이 거의 비슷한 시점에 같은 깨달음에 도달했다. 지속 가능한 AI 성과를 만들려면 초기 마케팅이 내세운 것보다 훨씬 많은 기초 작업이 필요하다는 사실을 알게 됐다”라고 말했다.

데이터 준비에는 시간이 필요하고, AI 모델의 동작을 조율해야 한다는 뜻이다. 고기아는 “AI 거버넌스 프레임워크는 즉흥적으로 만들 수 없다. 많은 경우 기대했던 효과의 속도와 범위가, 실제 프로덕션 시스템에 적용됐을 때 기술이 제공할 수 있는 수준보다 지나치게 빠르고 넓었다”라고 비판했다.

인포테크 리서치 그룹(Info-Tech Research Group) 자문 펠로우 스콧 빅클리는 마이크로소프트의 영업 할당량 축소 배경에는 자초한 측면이 있다며, “마이크로소프트의 AI 시장 공략 방식은 오만함에 기반하고, 시장 지배력을 최대한 활용하는 전략이었다”라고 지적했다.

빅클리는 “출발점부터 마이크로소프트는 고객이 AI를 대규모로 도입하더라도 정가를 매우 높게 책정하고 할인은 최소화했다. 코파일럿이든 애저 파운드리든 이들 제품을 ‘완전히 준비된 솔루션, 즉시 도입할 수 있고, 막대한 투자 대비 효과를 내는 턴키 패키지’인 것처럼 제시해 왔다”라며, “마이크로소프트가 이런 제품에 대해 프리미엄 가격을 청구하지만, 실제로는 절반만 완성된 수준이어서 본격적인 운영 환경에 투입할 준비가 전혀 돼 있지 않고 가격도 지나치게 비싸다”라고 비판했다.

빅클리는 “여기에 더해, 이런 도구를 제대로 활용하고 비즈니스 프로세스를 다시 설계하려면 고객 조직 안에 상당한 인재 역량이 필요하다는 점은 아예 고려조차 하지 않는다”고 지적했다.

빅클리는 CIO의 입장에서 바라본다면, “이번 움직임을 하나의 단서로 삼아 기술 자체 외에 필요한 모든 요소를 포괄하는 제대로 된 AI 전략을 실제로 구축하고 있는지, 기술로 무엇을 달성하려고 하는지 한 발 떨어져서 점검해야 한다”라고 조언했다. 또한, “생산성 향상은 방정식의 한 부분일 뿐이며, 진정한 가치를 내려면 지금까지 없었던 수준의 개인화, 새로운 예측 능력, 새로운 성과와 매출 성장을 이끄는 퍼포먼스가 필요하다”라고 덧붙였다.

퓨처럼 그룹(Futurum Group) 엔터프라이즈 소프트웨어·디지털 워크플로우 담당 리서치 디렉터 키스 커크패트릭은 AI 지형이 다른 측면에서도 크게 바뀌고 있다고 분석했다. 커크패트릭은 수요일 발표한 분석 보고서에서 “엔터프라이즈 소프트웨어 시장은 AI 과대광고에서 임베디드 방식의 운영 AI로 변하고 있으며, 주요 솔루션 업체는 AI를 워크플로우와 데이터 계층, 멀티 에이전트 오케스트레이션 프레임워크에 직접 통합하고 있다”라고 밝혔다.

AI 발전은 ‘절제’에서 나온다

커크패트릭은 “AI 도입이 확산되면서 논의의 초점도 단순한 기능 비교에서 가치 실현, 거버넌스, 상호운용성, 진화하는 AI 가격 모델로 옮겨갔다”라며, “2026년을 내다보면 구매자는 측정 가능한 비즈니스 성과를 우선하면서 통합된 데이터 기반과 잘 설계된 멀티 에이전트 아키텍처를 통해 AI 기반 매출 성장, 비용 절감, 운영 확장 효과를 입증해 보이는 업체를 선택할 것”이라고 전망했다.

기업이 이른바 “과장 경쟁”과 수식어 남발에 점점 피로감을 느끼고 있다는 점도 지적했다. 커크패트릭은 “2026년에는 조달 부서가 단순히 업무 단위 생산성 향상만 보여주는 수준을 넘어, 비즈니스 핵심 성과 지표에 직접 연계된 고객 사례를 제시하는 업체에 더 높은 점수를 줄 것이므로 솔루션 업체는 경쟁사의 신규 고객 사례와 성과 지표를 면밀히 모니터링해야 한다”라고 말했다.

한편 빅클리는 CIO에게 AI 관련 의사결정을 내릴 때 “AI 과대광고의 소용돌이 속으로 서둘러 뛰어들 필요가 없다는 점을 받아들이라”고 조언했다. 빅클리는 “각 기업에 맞는 방향을 차분하게 설계하고 계획할 시간을 충분히 가져도 실제로 뒤처지는 것은 아니다”라며, “AI 하이프 사이클이 워낙 시끄럽고 어디에나 존재하다 보니 이성적인 논리와 합리적인 판단이 완전히 묻혀 버렸다”라고 비판했다.

고기아도 이런 견해에 동의했다. 고기아는 “초기 하이프 사이클의 열풍은 이미 지나갔다”라며, “기술의 잠재력은 여전히 강력하지만, 지금은 훨씬 더 냉정한 시각과 안정된 태도로 평가가 이뤄지고 있다. AI 솔루션 업체는 빠르게 매출을 올리는 것보다 시간을 들여 쌓은 신뢰가 훨씬 더 가치 있다는 사실을 깨닫고 이런 새로운 리듬에 맞춰 움직이고 있다”라고 말했다.

또한, “이런 성숙함을 받아들이는 조직이 향후 10년간 엔터프라이즈 AI의 방향을 지속 가능하고 신뢰할 수 있으며, 실제 운영 현실에 기반한 모습으로 만들어 갈 것”이라고 강조했다.

고기아는 현재 마이크로소프트 등에서 벌어지고 있는 상황에 대해 “모멘텀의 상실이 아니라 겉보기에 화려한 성과에서 진짜 실질적인 내용으로 중심축이 이동하는 과정”이라고 진단했다. 고기아는 “지금 AI 시장은 진정한 진보는 과장된 퍼포먼스가 아니라, 조용하지만 일관된 실행과 절제에서 나온다는 사실을 깨닫고 있다”라며, “이번 사이클에서 처음으로 이런 ‘절제’가 눈에 보이기 시작했다”라고 덧붙였다.
dl-ciokorea@foundryco.com

지역·세대별 AI 활용 및 디지털 웰빙 격차 확대…시스코·OECD 분석

시스코와 경제협력개발기구(OECD)가 협력하여 공동으로 구축한 ‘디지털 웰빙 허브(Digital Well-being Hub)’가 기술의 위험과 이점, 그리고 AI가 사람의 삶에 미치는 영향을 심층적으로 분석한 최신 연구 결과를 공개했다. 생성형 AI가 일상에 빠르게 자리 잡는 가운데, AI 활용을 둘러싼 지역별/세대별 격차가 더욱 뚜렷해지고 있다는 분석이다. 이런 격차는 누가 AI의 혜택을 누리고, 누가 더 큰 위험을 감수하는지, 그리고 디지털 생활이 개인의 웰빙에 어떤 방식으로 영향을 미치는지를 좌우할 수 있는 중대한 요인으로 작용한다.

보고서에 따르면, 전 세계적으로 35세 미만 젊은 세대는 생성형 AI와 각종 디지털 서비스 활용의 핵심 사용자층이다. 특히 인도·브라질·멕시코·남아프리카공화국 등 신흥국 청년층이 두드러지며 AI 사용률, 신뢰 수준, 교육 참여도 등 거의 모든 지표에서 상위권을 기록했다. 반대로 많은 유럽 국가에서는 AI 관련 신뢰도가 낮고 불확실성이 높게 나타났다. 기술 도입이 선진국에서 먼저 일어나던 기존 흐름과 다른 양상이다.

흥미로운 점은 AI 활용도가 높은 신흥국 청년층이 동시에 ‘디지털 웰빙’ 저하 지표에서도 높은 수치를 보였다는 사실이다. 이들은 여가 시간대 스크린 사용 시간이 가장 길고 온라인 기반의 사회적 의존도 역시 높게 나타났다. 또한 기술 사용으로 인한 감정 기복도 가장 심한 경향을 보여 단순한 기술 접근성 이상의 균형 잡힌 디지털 환경이 필요성을 부각했다.

연구에 따르면, 전 세계적으로 하루 5시간을 초과하는 여가 시간대 스크린 사용 시간은 개인의 전반적인 웰빙 저하와 삶의 만족도 감소와 연관되는 것으로 나타났다. 특히 한국은 전 세계에서 ‘스크린 피로감(screen fatigue)’이 가장 높은 국가로 조사됐다. 이런 상관관계가 반드시 인과관계를 의미하는 것은 아니지만, 지속 가능한 디지털 미래를 위해서는 기술 혁신만큼이나 개인의 건강과 행복을 지키는 디지털 웰빙에 대한 꾸준한 관심과 노력이 필요하다.

시스코 수석부사장 겸 글로벌혁신책임자 가이 디드리히는 “신흥국이 AI 역량을 갖출 수 있도록 지원하는 것은 단순한 기술 보급이 아니라, 신흥국의 각 개인이 스스로의 미래를 설계할 수 있도록 잠재력을 열어 주는 일”이라며 “AI가 우리의 일상과 일터에 빠르게 보급되고 있는 지금, 우리는 투명성, 공정성, 프라이버시를 핵심 가치로 삼아 이들 도구가 책임감 있게 설계되도록 해야 한다”라고 말했다.

이어 “업무를 효율화하고 협업을 개선하며, 성장과 학습의 새로운 기회를 만들어 줄 때 AI는 웰빙을 향상시키는 방향으로 그 잠재력을 가장 크게 발휘할 수 있다”라며 “기술과 사람, 그리고 분명한 목적성이 결합될 때에야 비로소, 회복탄력성 있고 건강하며 번영하는 커뮤니티가 모든 곳에서 형성될 수 있다”라고 덧붙였다.

이번 연구에서는 세대 간 격차도 두드러졌다. 전 세계 청년층은 공통적으로 사회적 상호작용 대부분 또는 전부가 온라인에서 이루어지고 있다고 답했으며, AI의 유용성에 대해서도 높은 신뢰도를 보였다. 35세 미만의 조사대상자 중 절반 이상이 적극적으로 AI를 사용하고 있으며, 75% 이상은 AI가 유용하다고 평가했다. 또한 26~35세 응답자의 절반가량은 이미 AI 관련 교육을 이수한 것으로 나타났다.

반대로, 45세 이상 중장년층은 AI의 유용성에 대해 비교적 회의적이었으며, 절반 이상은 AI를 전혀 사용하지 않는다고 답했다. 55세 이상에서는 “AI를 신뢰하는지 잘 모르겠다”라는 응답이 높게 나타났는데, 이는 명확한 거부감이라기보다 기술에 대한 낮은 친숙도와 경험 부족에서 비롯된 불확실성으로 해석된다.

세대별 친숙도의 격차는 AI가 일자리와 업무 환경에 미칠 영향에 대한 기대와 인식에서도 고스란히 드러난다. 35세 미만과 신흥국 응답자는 AI가 향후 일자리에 미칠 잠재적 영향이 가장 클 것으로 전망한 반면, 고령층에서는 그 수준이 상대적으로 낮았다.

디드리히는 “디지털과 AI 도입에서 나타나는 세대 차이는 어쩔 수 없다며 포기할 문제가 아니라, 우리가 분명한 목표를 가지고 행동함으로써 충분히 해결할 수 있는 과제”라며 “젊은 세대가 새로운 기술을 더 빨리 받아들일 수는 있지만, 모든 연령대의 사람이 각자의 고유하고도 소중한 경험과 통찰을 갖고 있다”라며 “AI 성공의 핵심 기준은 단지 도입 속도가 아니라, 모든 연령·기술 수준·지역의 사람이 AI를 활용해 실제로 삶을 얼마나 향상시킬 수 있는가에 두어야 한다. 그래야만 ‘AI 세대(Generation AI)’가 진정으로 모두를 포용하는 세대가 될 수 있다”라고 덧붙였다.
dl-ciokorea@foundryco.com

레거시 유지보수에 발목 잡힌 IT, 서드파티로 돌파구 모색

기술 부채가 IT 조직을 마비시킬 위협 요인으로 떠오르자 상당수 CIO가 레거시 소프트웨어와 시스템 유지보수·업그레이드를 위해 서드파티 서비스 업체에 눈을 돌리고 있다. 매니지드 서비스 업체 엔소노(Ensono)가 실시한 설문조사 결과, IT 리더 100명 가운데 95명이 레거시 IT를 현대화하고 기술 부채를 줄이기 위해 외부 서비스 업체를 활용하고 있는 것으로 나타났다.

이 같은 움직임은 부분적으로 레거시 IT 비용 증가에서 비롯됐다. 응답자 가운데 거의 절반은 지난해 노후 IT 시스템 유지보수에 예산보다 더 많은 비용을 지출했다고 답했다. 더 큰 문제는 레거시 애플리케이션과 인프라가 IT 조직의 발목을 잡고 있다는 점이다. IT 리더 10명 가운데 9명은 레거시 유지보수가 AI 현대화 계획에 걸림돌이 되고 있다고 지적했다.

엔소노의 CTO 팀 베어먼은 “레거시 시스템 유지보수가 현대화 노력에 큰 방해가 되고 있다”라며, “전형적인 혁신가의 딜레마다. 혁신보다는 노후 시스템과 그 해결 방안에만 집중하고 있다”라고 지적했다.

일부 CIO는 레거시 시스템 운영을 서비스 업체에 맡기거나 외부 IT팀을 활용해 기술 부채를 정리하고 소프트웨어와 시스템을 현대화하고 있다. 베어먼은 레거시 시스템을 외부에 맡기는 기업이 증가하는 배경으로 고령화된 인력을 꼽았다. 기업 내부의 레거시 시스템 전문가가 은퇴하면서 축적된 지식도 함께 빠져나가고 있다는 의미다.

베어먼은 “이 일을 내부에서 직접 처리할 수 있는 인력이 많지 않다. 조직 내 인력이 고령화되고 퇴직자가 늘어나는 상황에서, 필요한 인재를 채용하기 어려운 영역에서는 외부에서 전문 인력을 찾아야 한다”라고 설명했다. 또, “MSP 모델 자체는 수십 년 전부터 존재했지만, 최근에는 예산을 확보하고 AI를 도입할 시간을 만들기 위해 MSP를 기술 부채 관리 수단으로 활용하는 흐름이 커지고 있다”라고 분석했다.

AI처럼 새로운 기술이 빠르게 확산되는 것도 이런 흐름에 일조하고 있다. 베어먼은 “한쪽에는 관리·유지해야 하는 레거시 문제가 있고, 다른 한쪽에는 수년 동안 경험하지 못한 속도로 발전하는 최신 기술이 있어 양쪽을 동시에 따라가기 어렵다”라고 덧붙였다.

위험의 아웃소싱

사이버 보안 서비스 업체 뉴빅(Neuvik)의 CEO 라이언 레이르빅은 레거시 IT 관리를 서비스 업체에 맡기는 흐름이 확대되고 있다는 점에 동의했다. 레이르빅은 레거시 시스템에 적합한 전문가를 매칭하는 등 여러 장점을 언급하면서도, CIO가 위험 관리를 위해 MSP를 활용하는 경향도 있다고 지적했다.

레이르빅은 “많은 장점 가운데 자주 언급되지 않는 핵심은 취약점 악용이나 서비스 중단 위험을 서비스 업체에 맡길 수 있다는 점”이라며, “취약점 발견과 패치, 전반적인 유지보수에 지속적으로 많은 비용이 드는 환경에서는 잘못 대응했을 때 발생하는 위험을 서비스 업체가 떠안게 되는 경우가 많다”라고 설명했다.

미 국방부(US Department of Defense)에서 비서실장 겸 사이버 부문 부국장을 지낸 레이르빅은 레거시 IT 유지보수 예산을 초과 집행한 IT 책임자가 많다는 것이 놀랄 일은 아니라고 말한다. 많은 조직이 현재 보유한 IT 인프라와 앞으로 전환해야 할 인프라 사이에서 필요한 인재 역량이 맞지 않는 상황에 놓여 있다고 지적하며, 레거시 소프트웨어와 시스템의 지속적인 유지보수 비용이 예상보다 더 많이 드는 경우도 잦다고 말했다.

레이르빅은 “초기 도입 비용이 1이라면, 유지보수 비용은 1X이기 때문에 예상하지 못한 거대한 유지보수 꼬리가 생긴다”라고 덧붙였다.

레거시 유지보수의 덫에서 벗어나려면 적절한 서드파티 업체를 고르는 선견지명과 선택 기준이 필요하다. 레이르빅은 “장기적인 관점에서 해당 업체와 향후 5년 계획이 맞물리는지 반드시 확인해야 한다. 또 조직의 목표와 업체가 제공하려는 지원 방향이 일치하는지도 점검해야 한다”라고 조언했다.

두 번 지불하는 비용

일부 IT 리더가 레거시 시스템 현대화를 서드파티 업체에 맡기고 있지만, IT 서비스 관리 및 고객 서비스 소프트웨어 업체 프레시웍스(Freshworks)가 최근 공개한 보고서는 이런 현대화 노력이 과연 효율적인지에 의문을 제기했다.

프레시웍스의 조사에서 응답자의 3/4 이상은 소프트웨어 도입에 예상보다 더 많은 시간이 걸린다고 답했고, 프로젝트 가운데 2/3은 예산을 초과했다고 응답했다. 프레시웍스의 CIO 아슈윈 발랄은 서드파티 서비스 업체가 이 문제를 해결해 주지 못할 수도 있다고 경고했다.

발랄은 “레거시 시스템이 너무 복잡해지면서 기업이 도움을 구하려고 서드파티 업체와 컨설턴트에 점점 더 의존하고 있지만, 실제로는 수준 이하의 레거시 시스템을 다른 수준 이하 레거시 시스템으로 바꾸는 결과에 그치는 경우가 많다”라며, “서드파티 업체와 컨설턴트를 추가하면 기존 문제를 해결하기보다는 새로운 복잡성만 더해 문제를 악화시키는 사례도 적지 않다”라고 지적했다.

해법은 서드파티 업체를 늘리는 것이 아니라 별도의 복잡한 작업 없이 바로 쓸 수 있는 새로운 기술을 도입하는 데 있다. 발랄은 “이론적으로 서드파티 업체는 전문성과 속도를 제공한다. 하지만 현실에서는 복잡한 기술을 도입하는 데 한 번, 해당 기술이 제대로 작동하도록 컨설턴트를 투입하는 데 또 한 번 등 두 번 비용을 지불하는 경우가 많다”라고 꼬집었다.

피하기 어려운 서드파티 업체 활용

사이버 보안 솔루션 업체 워치가드 테크놀로지스(WatchGuard Technologies)의 필드 CTO 겸 CISO 애덤 윈스턴은 상당수 IT 리더가 일정 수준의 서드파티 지원을 사실상 피할 수 없는 선택으로 보고 있다. 윈스턴은 오래된 코드를 업데이트하거나 워크로드를 클라우드로 이전하고 SaaS 도구를 도입하고, 사이버보안을 강화하는 등 대부분의 과제에서 이제 외부 지원이 필요하다고 말했다.

윈스턴은 노후 원격접속 도구와 VPN을 포함한 레거시 시스템이 쌓이면 기술 부채가 눈덩이처럼 불어나 조직을 짓누를 수 있다고 경고했다. 또, 아직 많은 조직이 클라우드나 SaaS 도구로 완전히 현대화하지 못한 상태이며, 전환 시점이 오면 외부 업체에 도움을 요청할 수밖에 없을 것이라고 내다봤다.

윈스턴은 “대부분 기업은 자체 애플리케이션을 설계·개발·운영하지 않고, 그런 영역에 기술 부채가 쌓여 있는 상황에서 하이브리드 IT 구조를 유지하고 있다”라며, “여전히 코로케이션과 온프레미스 중심이던 시절의 환경을 유지하는 기업도 많고, 이런 환경에는 거의 예외 없이 레거시 서버와 레거시 네트워크, 현대적인 설계나 아키텍처를 따르지 않는 레거시 시스템이 포함돼 있다”라고 설명했다.

이런 기업의 IT 리더는 노후 기술을 단계적으로 퇴역시키는 계획을 세우고, IT 투자가 가능한 한 최신 상태를 유지하도록 솔루션 업체의 책임을 명확히 하는 서비스 계약을 체결해야 한다. 윈스턴은 많은 솔루션 업체가 신제품을 내놓으면서 기존 제품 지원을 너무 쉽게 중단한다고 지적했다.

윈스턴은 “업그레이드를 하지 않을 계획이라면 레거시 지원 비용을 면밀히 따져 보고, 업그레이드할 수 없다면 어떻게 격리할 것인지에 대한 답을 준비해야 한다”라며, “업그레이드가 불가능할 경우 위험을 옮기기 위한 이른바 ‘무덤 격리 전략(graveyard segmentation strategy)’을 어떻게 설계할지도 고민해야 한다”라고 강조했다. 또 “솔루션 업체 실사 과정에서 이런 논의가 빠지는 경우가 많고, 그러다 문제가 터지면 조직이 뒤늦게 놀라게 된다”라고 덧붙였다.

그렇다고 CIO가 레거시 IT 전문성을 쌓는 방향으로 커리어를 설계하는 것은 피해야 한다. 윈스턴은 “소프트웨어나 구축 비용을 충분히 상각하지 못했다면, 앞으로 도입하는 모든 신규 애플리케이션에는 최신 컴포넌트를 사용하겠다고 스스로 다짐해야 한다”라고 강조했다.
dl-ciokorea@foundryco.com

클라우드플레어 기고| AI 시대, 콘텐츠 통제권을 위한 ‘허가 기반 인터넷’으로 전환해야

과거 검색 엔진 크롤링은 웹으로 다시 트래픽을 돌려주는 이로운 구조였지만, 이제는 상황이 다르다. AI 기업들은 웹에서 수집한 콘텐츠를 학습 데이터로 활용해 요약·응답·개요 형태의 파생 콘텐츠를 제공하고, 사용자는 원본 사이트를 방문하지 않고도 필요한 정보를 얻게 된다. 이는 트래픽과 광고 수익을 감소시켜 콘텐츠 제작자의 수익 구조를 위협할 뿐 아니라, 지적 재산권 보호·데이터 출처 확보·콘텐츠 오남용 문제를 야기하는 구조적 변화다. 콘텐츠 제작자가 자신의 데이터에 대한 통제력을 잃게 되는 것이다.

더 큰 문제는 AI 기반 봇이 보안 위협으로 진화하고 있다는 점이다. 일부 악성 봇은 단순 크롤링을 넘어 웹 취약점을 자동으로 탐색하고, 계정 탈취, 사기성 결제 시도 등 다양한 공격을 수행한다. 예를 들어, 기업이 증시 마감 후 발표할 예정이었던 중요 비공개 재무 정보가 악성 봇에 의해 유출될 경우, 이는 불법 주식 거래와 규제 위반으로 이어져 회사에 치명적인 결과를 초래할 수 있다.

AI 봇의 양적 확산은 이제 무시하기 어려운 수준이다. 인터넷 현황 모니터링 플랫폼 클라우드 레이더의 데이터에 따르면, 특히 메타의 AI 봇 ‘메타-익스터널 에이전트(Meta-External Agent)’는 1년 새 요청량이 843%라는 폭발적인 증가세를 보였다. 오픈AI의 GPT봇(GPTBot) 역시 147% 증가하며 기존의 IP 차단이나 단순 레이트 리미팅만으로는 이들을 통제하기 어려워졌다는 것을 반증한다. 더불어, AI가 ‘CAPTCHA(캡차)’를 학습해 우회하는 사례도 늘고 있다.

이러한 변화 속에서 기업과 퍼블리셔는 악의적인 AI 봇을 차단하고 콘텐츠 스크래핑을 제어할 수 있는 효과적인 방법을 찾아야 한다. AI가 만들어내는 새로운 비즈니스 기회를 차단하지 않으면서도, 조직의 데이터·보안·브랜드를 보호하려면 기존보다 훨씬 정교한 접근이 필요하다.

따라서 AI 봇 위협에 대응하고 콘텐츠 통제권을 되찾기 위해서는 다음과 같은 다중 계층 보안 전략구축이 요구된다:

첫째, 기초 단계인 정적 제어(Layer 1)다. 이는 대규모 봇 공격을 견디고, AI 기반 봇이 기존 방어선을 쉽게 우회하지 못하도록 하는 출발점이 된다. CAPTCHA를 사용하지 않는 인증 방식, 다중 인증(MFA), 레이트 리미팅과 같은 요소들은 실제 사용자의 경험을 저해하지 않으면서도 자동화된 시도를 효과적으로 차단한다. 또한 악성 봇을 정상 페이지 대신 대체 콘텐츠로 유도해 리소스를 소비시키는 기법도 정적 제어의 일환으로 활용될 수 있다.

둘째, 동적 제어(Layer 2)는 예측적 방어 능력을 더한다. 정적 제어 위에 더해지는 동적 제어는 변화하는 AI 봇의 움직임을 조기에 감지하고 대응하는 역할을 한다. 실시간 위협 인텔리전스 분석을 통해 새로운 공격 패턴이 도달하기 전에 차단할 수 있고, 상세한 트래픽 로그는 사람이 보기 어려운 행동 패턴의 차이를 식별하는 데 도움을 준다. 머신러닝(ML) 기반 행동 분석은 정상 사용자와 비정상적 트래픽의 간극을 자동으로 파악해 이상 징후를 식별한다. 이러한 동적 제어는 AI 봇이 시시각각 패턴을 바꾸며 등장하는 환경에서 필수적이다.

셋째, 가장 중요한 세분화된 거버넌스(Layer 3)다. 이는 무조건적인 차단 전략에서 벗어나, 어떤 봇이 어떤 목적을 가지고 어떤 페이지에 접근할 수 있는지를 조직이 직접 결정하는 체계를 의미한다. 이를 위해 조직은 먼저 AI 감사(AI Auditing) 기능을 통해 어떤 AI 봇이 사이트에 접근하고 있는지 투명하게 파악해야 한다. 봇이 접근 목적과 소속 서비스를 암호화 서명으로 증명하도록 요구함으로써, 봇의 신뢰성을 확보하고 정식 크롤러와 비정상적인 접근을 구분할 수 있다. 더 나아가, 페이지 단위로 접근 권한을 조정해 광고 기반 수익 페이지는 차단하고 개발자 문서나 공공성 있는 자료는 허용하는 등 콘텐츠 성격에 따라 전략적 선택을 할 수 있다. 특히, 크롤링당 결제(pay-per-crawl) 모델을 적용하면 AI 기업이 데이터를 학습에 활용할 때 합당한 비용을 지불하도록 할 수 있어 콘텐츠 제작자에게 새로운 수익 모델을 열어줄 수 있다.

궁극적으로 이러한 다중 계층 전략은 인터넷이 AI를 중심으로 재편되는 흐름 속에서 콘텐츠 제작자와 기업이 다시 통제권을 확보하는 과정이다. 단순히 유해한 봇을 막는 것에 그치지 않고, 어떤 주체가 어떤 방식으로 콘텐츠를 활용할 수 있는지 선택할 수 있는 권한을 되찾는 방향으로 나아가야 한다. 이를 통해 조직은 AI가 만들어내는 위협으로부터 스스로를 보호하는 동시에, 새로운 인터넷 시대가 제공하는 기회를 보다 공정하고 안정적으로 활용할 수 있을 것이다.

*필자 조원균 클라우드플레어(Cloudflare) 한국 지사장은 한국 내 클라우드플레어의 입지 강화와 브랜드 인지도 제고에 주력하고 있으며, 세일즈 및 채널 파트너를 통한 고객 접점 최적화에도 집중하고 있다. 원균 지사장은 25년 이상 리더십 경험을 보유한 베테랑으로, 클라우드플레어 합류 전 F5, 포티넷, 시스코 등을 포함한 주요 글로벌 테크 기업에서 근무한 바 있다.
dl-ciokorea@foundryco.com

Closing the IT estate expectation gap

Talk to CEOs today and some common themes emerge: they’re moving faster, making bigger bets and relying more heavily on technology to execute their strategic agenda. Expectations on the IT estate have never been higher, yet many CEOs feel it’s a “black box” – essential, but difficult to see into and even harder to gauge.

At the same time, CIOs know that aging infrastructure is struggling to keep pace with AI-driven transformation, rising cyber risks or the agility their CEO has come to expect.  

This expectation gap is exactly why Netskope’s Crucial Conversations research identifies the IT estate as one of the six essential discussions CIOs must master today if they are to successfully align with their CEO on their modernization agenda. 

CEOs’ growing frustration with the “black box”

CEOs that took part in the research admitted they don’t understand what’s happening deep inside the IT stack and that makes them uncomfortable. Some feel their CIO shields them from the complexity; others feel the CIO overcomplicates it. Either way, this impacts confidence. 

Why the IT estate has become a strategic conversation

Three forces are pushing the IT estate onto the CEO agenda faster than many CIOs expected:

1. AI demands modern foundations

Organizations are moving from AI experiments to AI integration at pace. But AI doesn’t run effectively on infrastructure designed for a pre-AI world. CEOs need to understand that modernization is not a technology preference – it’s a prerequisite for delivering the business outcomes they now expect from AI.

2. The cost/risk trade-off is shifting

CEOs expect CIOs to be “gatekeepers” of cost, challenging suppliers and avoiding unnecessary spending. But they also expect CIOs to be candid about the real cost of doing nothing – outages, slowdowns, security exposure and innovation bottlenecks that compound, year after year.

3. The estate has moved from technical debt to strategic debt

Aging infrastructure no longer just slows down IT; it slows down the business. It limits agility, restricts transformation, and reduces competitiveness. CEOs may not use the words “technical debt,” but they understand when the organization is weighed down by the past.

How CIOs should reframe the conversation

To build trust and alignment, CIOs need to take ownership of this conversation rather than waiting for disruption to force it, and CEOs want three things from them. 

They want issues surfaced early and directly, with no surprises. CIOs need to lead with transparency.

Second is proactivity and the confidence to embrace change, make bold strategic calls, and recognize that even small fixes can have outsized impact, especially in an AI-driven environment.

And third is practicality. CEOs aren’t interested in “new toys,” but in well-evidenced, sensible solutions that reduce risk and address problems decisively when they arise. 

Above all, they want CIOs to think long term, planning infrastructure over the next decade rather than the next budget cycle and moving beyond an “if it isn’t broken” mindset. 

The moment for this conversation is now

Most enterprises are at an inflection point. Modernize the estate to unlock AI-driven advantage or carry forward a legacy footprint that cannot support the ambitions the CEO now expects the CIO to deliver. The CIO who leads this conversation will be seen as a true strategic partner.  

Explore all six crucial conversations

The IT estate is only one of six crucial conversations CIOs need to master with their CEO. To dive deeper into the rest – cost, risk, innovation, people and measurement – read the full Crucial Conversations report now. 

US federal software reform bill aims to strengthen software management controls

Software management struggles that have pained enterprises for decades cause the same anguish to government agencies, and a bill making its way through the US House of Representatives to strengthen controls around government software management holds lessons for enterprises too.

The Strengthening Agency Management and Oversight of Software Assets (SAMOSA) bill, H.R. 5457, received unanimous approval from a key US House of Representative committee, the Committee on Oversight and Government Reform, on Tuesday.

SAMOSA is mostly focused on trying to fix “software asset management deficiencies” as well as requiring more “automation of software license management processes and incorporation of discovery tools,” issues that enterprises also have to deal with.

In addition, it requires anyone involved in software acquisition and development to be trained in the agency’s policies and, more usefully, in negotiation of contract terms, especially those that put restrictions on software deployment and use.

This training could also be quite useful for enterprise IT operations. It would teach “negotiating options” and specifically the “differences between acquiring commercial software products and services and acquiring or building custom software and determining the costs of different types of licenses and options for adjusting licenses to meet increasing or decreasing demand.”

The mandated training would also include tactics for measuring “actual software usage via analytics that can identify inefficiencies to assist in rationalizing software spending” along with methods to “support interoperable capabilities between software.”

Outlawing shadow IT

The bill also attempts to rein in shadow IT by “restricting the ability of a bureau, program, component, or operational entity within the agency to acquire, use, develop, or otherwise leverage any software entitlement without the approval of the Chief Information Officer of the agency.” But there are no details about how such a rule would be enforced.

It would require agencies “to provide an estimate of the costs to move toward more enterprise, open-source, or other licenses that do not restrict the use of software by the agency, and the projected cost savings, efficiency measures, and improvements to agency performance throughout the total software lifecycle.” But the hiccup is that benefits will only materialize if technology vendors change their ways, especially in terms of transparency.

However, analysts and consultants are skeptical that such changes are likely to happen.

CIOs could be punished

Yvette Schmitter, a former Price Waterhouse Coopers principal who is now CEO of IT consulting firm Fusion Collective, was especially pessimistic about what would happen if enterprises tried to follow the bill’s rules.

“If the bill were to become law, it would set enterprise CIOs up for failure,” she said. “The bill doubles down on the permission theater model, requiring CIO approval for every software acquisition while providing zero framework for the thousands of generative AI tools employees are already using without permission.”

She noted that although the bill mandates comprehensive assessments of “software paid for, in use, or deployed,” it neglects critical facets of today’s AI software landscape. “It never defines how you access an AI agent that writes its own code, a foundation model trained on proprietary data, or an API that charges per token instead of per seat,” she said. “Instead of oversight, the bill would unlock chaos, potentially creating a compliance framework where CIOs could be punished for buying too many seats for a software tool, but face zero accountability for safely, properly, and ethically deploying AI systems.”

Schmitter added: “The bill is currently written for the 2015 IT landscape and assumes that our current AI systems come with instruction manuals and compliance frameworks, which they obviously do not.”

She also pointed out that the government seems to be working at cross-purposes. “The H.R. 5457 bill is absurd,” she said. “Congress is essentially mandating 18-month software license inventories while the White House is simultaneously launching the Genesis Mission executive order for AI that will spin up foundation models across federal agencies in the next nine months. Both of these moves are treating software as a cost center and AI as a strategic weapon, without recognizing that AI systems are software.”

Scott Bickley, advisory fellow at Info-Tech Research Group, was also unimpressed with the bill. “It is a sad, sad day when the US Federal government requires a literal Act of Congress to mandate the Software Asset Management (SAM) behaviors that should be in place across every agency already,” Bickley said. “One can go review the [Office of Inspector General] reports for various government agencies, and it is clear to see that the bureaucracy has stifled all attempts, assuming there were attempts, at reining in the beast of software sprawl that exists today.”

Right goal, but toothless

Bickley said that the US government is in dire need of better software management, but that this bill, even if it was eventually signed into law, would be unlikely to deliver any meaningful reforms. 

“This also presumes the federal government actually negotiates good deals for its software. It unequivocally does not. Never has there been a larger customer that gets worse pricing and commercial terms than the [US] federal government,” Bickley said. “At best, in the short term, this bill will further enrich consultants, as the people running IT for these agencies do not have the expertise, tooling, or knowledge of software/subscription licensing and IP to make headway on their own.”

On the bright side, Bickley said the goal of the bill is the right one, but the fact that the legislation didn’t deliver or even call for more funding makes it toothless. “The bill is noble in its intent. But the fact that it requires a host of mandatory reporting, [Government Accountability Office] oversight, and actions related to inventory and overall [software bill of materials] rationalization with no new budget authorization is a pipe dream at best,” he said. 

Sanchit Vir Gogia, the chief analyst at Greyhound Research, was more optimistic, saying that the bill would change the law in a way that should have happened long ago.

“[It] corrects a long-standing oversight in federal technology management. Agencies are currently spending close to $33 billion every year on software. Yet most lack a basic understanding of what software they own, what is being used, or where overlap exists. This confusion has been confirmed by the Government Accountability Office, which reported that nine of the largest agencies cannot identify their most-used or highest-cost software,” Gogia said. “Audit reports from NASA and the Environmental Protection Agency found millions of dollars wasted on licenses that were never activated or tracked. This legislation is designed to stop such inefficiencies by requiring agencies to catalogue their software, review all contracts, and build plans to eliminate unused or duplicate tools.”

Lacks operational realism

Gogia also argued, “the added pressure of transparency may also lead software providers to rethink their pricing and make it easier for agencies to adjust contracts in response to actual usage.” If that happens, it would likely trickle into greater transparency for enterprise IT operations. 

Zahra Timsah, co-founder and CEO of i-GENTIC AI, applauded the intent of the bill, while raising logistical concerns about whether much would ultimately change even if it ultimately became law.

“The language finally forces agencies to quantify waste and technical fragmentation instead of talking about it in generalities. The section restricting bureaus from buying software without CIO approval is also a smart, direct hit on shadow IT. What’s missing is operational realism,” Timsah said. “The bill gives agencies a huge mandate with no funding, no capacity planning, and no clear methodology. You can’t ask for full-stack interoperability scoring and lifecycle TCO analysis without giving CIOs the tools or budget to produce it. My concern is that agencies default to oversized consulting reports that check the box without actually changing anything.”

Timsah said that the bill “is going to be very difficult to implement and to measure. How do you measure it is being followed?” She added that agencies will parrot the bill’s wording and then try to hire people to manage the process. “It’s just going to be for optic’s sake.”

The year ahead: What will become the 3 pillars of trust in an AI-first world?

Today, the conversation in every boardroom is most likely centered on a single, transformative force: artificial intelligence (AI). Many see it as the engine for unprecedented growth, efficiency, and innovation. And, while this belief is justifiable, the entire revolution is being built on a fragile foundation of trust — an already fragile ground that is about to shift even further.

As AI systems begin to manage supply chains, deploy code, and execute financial transactions, the nature of risk changes entirely. The primary threat becomes the catastrophic cost of disruption to the intelligent systems that form the central nervous system of modern business.

To harness AI’s promise while mitigating its existential risks, we already know that leaders must move beyond a defensive security posture. To be effective, leaders must also fundamentally shift how they view security as a whole. They must view it as the foundation that innovation is built on, not as a barrier to progress. To do this, we, as a collective, must build a proactive strategy based on three core pillars of trust.

1. Engineering for trust

Trust cannot be an afterthought; it must be an engineering outcome. In the past, security was often a gate that slowed progress. Today, that model is inverted. A modern, unified security platform with trust built in by design now serves as a powerful strategic accelerator.

Automated security, when treated as a native component of the AI development lifecycle, eliminates the traditional brakes on progress. This enables our teams to innovate and deploy new models with the speed and confidence that delivers a direct, quantifiable competitive advantage. This transition from a reactive posture to one that ensures innovation velocity is key.

The “engineering for trust” approach also allows us to address a silent liability plaguing many organizations: decades of accumulated security debt. A patchwork of disconnected point products creates a complex and vulnerable attack surface, a problem now amplified by the cloud. Our exclusive internal research found that a majority of cloud databases related to AI development are not properly secured, lacking basic encryption or access controls.

Moving to a unified, trustworthy platform is akin to refinancing this debt — a solution that any board member would be amenable to. This type of platform simplifies operations, reduces long-term risk, and frees up our most valuable resources to focus on growth instead of just defense.

2. Cultivating cultures of trust

A single human error can undermine even the most perfectly engineered system. While technology provides the foundation, a vigilant and security-conscious culture forms the crucial human layer of the trust stack.

In an era of AI-powered phishing and sophisticated social engineering, every employee must become a steward of their organization’s security. This challenge is magnified by the rise of shadow AI. Our latest research on SaaS risks reveals that the use of unsanctioned third-party AI tools in the enterprise has skyrocketed, creating a massive blind spot where sensitive corporate data is regularly fed into untrusted models. That is why this pillar demands more than annual training videos. It requires a deep-seated culture of awareness where people are empowered to question anomalies and act as the first line of defense.

The value of this culture extends far beyond risk mitigation. A strong culture provides the ethical guardrails that ensure AI is used responsibly, protecting the brand and maintaining customer confidence that is so difficult to earn and so easy to lose. Its essential, human-driven process protects the organization from the inside out.

3. Governing for trust

The speed and scale of modern AI demand a new governance model built on two key principles: unwavering human control and radical industry-wide cooperation.

First, we must design systems that guarantee human oversight. Robust, human-in-the-loop governance is the ultimate safeguard against the catastrophic business disruption that autonomous systems could otherwise trigger. It is the board-level guarantee that our most valuable tools remain under our command, operating as intended.

Second, we must recognize that we cannot face this new threat landscape alone. AI-powered attacks are an ecosystem-wide problem that demands an ecosystem-wide defense. Sharing threat intelligence and best practices across companies and industries is a core business necessity for our collective survival and stability.

Trust as the ultimate ROI

To lead in the age of AI, our strategy must be clear. We need well-engineered systems that accelerate the business, a vigilant culture that protects it, and a robust governance that ensures its resilience. The goal of a modern security strategy has fundamentally changed, shifting from merely preventing incidents to actively creating and protecting value.

In the AI-first world, thriving organizations will understand that trust is the most valuable asset on their balance sheet and the ultimate driver of their success.

Curious what else Ben has to say? Check out his other articles on Perspectives.

Building tech leaders who think like CEOs (and deliver like operators)

So your newly promoted CTO walks into their first executive meeting, armed with deep technical expertise and genuine enthusiasm for transformation. Six months later, they’re frustrated, your digital initiatives have stalled and your board is questioning the technology leadership strategy.

This isn’t a story about hiring the wrong person. It’s a story about building the wrong environment.

Here’s the truth your consultants won’t share: When technical leaders fail, it’s rarely a failure of intelligence. It’s a failure of integration.

Charles Sims notes this in his analysis of C-suite dynamics, “If you’re seated in the ‘big chair,’ you can’t expect people to intuit where they need to go. You need to build the bridge.”

The organizations winning the transformation race aren’t just hiring better CTOs; they’re creating fundamentally different conditions for technology leadership to thrive.

The hidden architecture of failure

Before we dive into solutions, let’s diagnose what’s actually broken.

The problem isn’t individual competence, it’s institutional design.

Most C-suite structures were established when technology was viewed as a cost center, rather than a competitive weapon. The processes, meeting rhythms and decision-making frameworks assume technology comes after strategy, not during it.

This creates what I call the integration gap, the space between where technology leaders sit and where they need to be to drive real transformation.

Deloitte research on resilient technology functions reveals a telling insight: High-performing “tech vanguard” businesses fundamentally differ in how they structure technology leadership.

As Khalid Kark and Anh Nguyen Phillips point out, these organizations embrace “joint accountability” and “establish sensing mechanisms that help anticipate business change.”

Translation: They don’t just include technology in business strategy, they integrate it.

The strategic exclusion problem

Here’s the most expensive mistake organizations make: bringing technology leaders into strategy validation, not strategy formation.

I’ve watched this pattern across dozens of transformations. The business leadership team spends months crafting the digital strategy. They debate market positioning, customer experience and competitive responses. Then, in the final act, they bring in the CTO to confirm technical feasibility.

This isn’t collaboration, it’s a recipe for execution failure.

CIO advisor Isaac Sacolick sums it up nicely, “What the risk here for CIOs is to get something out there on paper and start communicating. Letting your business partners know that you’re going to be the center point of putting a strategy together.

“Being able to do blue sky planning with business leaders, with technologists and data scientists on a very frequent basis to say, ‘is our strategy aligned or do we need a pivot’ or do we need to add I think that’s really the goal for a CIO now is to continually do that over the course of how this technology is changing.”

When technologists inherit fully formed strategies, they inherit the constraints, assumptions and blind spots of non-technical decision-making. The result? Strategies that sound compelling in PowerPoint but break down in reality.

The integration solution: As Sims emphasizes, successful businesses bring technology leaders in “when the goals are still being shaped.” Technology leaders become co-architects of strategy, not just implementers of it.

The translation challenge

Every business talks about wanting CTOs who can “translate technical complexity into business value.”

But most create conditions that make effective translation impossible.

The problem isn’t that technology leaders can’t communicate. It’s that business leaders structure every interaction to discourage strategic thinking. Fifteen-minute slots for infrastructure decisions. “High-level only” constraints on technical briefings. Interruptions when discussions get into architectural details.

Sims captures the real need perfectly: “Ask them to explain how tech can enable outcomes, not just avoid outages.” But enabling outcomes requires time, context and genuine dialogue — not rapid-fire status updates.

The integration solution: Create forums for substantive technical dialogue. Allocate time for technology leaders to educate business counterparts on possibilities, constraints and trade-offs.

The four pillars of technology leadership integration

The rebel leaders I’ve studied don’t just talk about integration, they systematically engineer it. Here are the four pillars that separate transformation winners from digital theater performers.

Pillar one: Strategic co-creation

Instead of: Bringing technology leaders in for feasibility validation.

Rebels: Include them in strategic formation from day one.

The breakthrough insight is simple: Technology constraints and possibilities should shape strategy, not just constrain it. When technologists participate in strategic formation, they help identify opportunities that pure business thinking might miss.

Actionable implementation:

  • Include your CTO in quarterly business reviews, not just technology reviews
  • Require technology input before major strategic initiatives get funded
  • Create joint business-technology planning sessions for all transformation efforts
  • Give technology leaders access to the same market intelligence and customer feedback as other executives

Pillar two: Outcome-driven accountability

Instead of: Asking for deliverables and timelines.

Rebels: Define success in business outcomes and measure accordingly.

This shift eliminates the translation problem entirely. When success is defined in business terms from the beginning, technology leaders naturally think about impact, not just implementation.

The Deloitte study talks about “value-based investments” aligned with “iterative Agile sprints.” But the real innovation isn’t methodological, it’s definitional. Success gets measured by business value delivered, not features completed.

Actionable implementation:

  • Replace project status meetings with outcome review sessions
  • Tie technology leader compensation to business metrics, not just technical ones
  • Create shared dashboards that track business impact of technology initiatives
  • Require business case updates, not just project updates

Pillar three: Information symmetry

Instead of: Functional hierarchy with information silos.

Rebels: Ensure technology leaders have the same strategic context as business leaders.

Sims makes a crucial point: “Technology touches every department. The org chart should reflect that.” But organizational design goes beyond reporting structures; it’s about information flow and decision rights.

The Deloitte research highlights the need for “sensing mechanisms that help anticipate business change.” But sensing requires access to information, not just responsibility for reaction.

Actionable implementation:

  • Include technology leaders in customer advisory boards and market research reviews
  • Share competitive intelligence and industry analysis with the entire C-suite, not just business functions
  • Create cross-functional intelligence-sharing sessions where every leader contributes market insights
  • Ensure technology leaders participate in customer meetings and strategic partnerships

Pillar four: Translation excellence

Instead of: Expecting natural translation ability.

Rebels: Systematically develop two-way translation competence.

Here’s where most organizations get it backwards. They expect CTOs to be great translators but provide no development, feedback or support for this critical skill.

As Sims notes, “The best CTOs turn complexity into clarity. They make everyone around them smarter. That’s the leadership skill we should be measuring.”

But translation is a two-way street. Business leaders also need to develop competence in asking strategic questions that unlock technological insight.

Actionable implementation:

  • Create monthly translation labs where technology leaders practice explaining complex concepts to different audiences
  • Train business leaders to ask better questions: “What are the trade-offs?” instead of “Is this feasible?”
  • Establish technology education sessions for non-technical executives
  • Reward and recognize technology leaders who effectively educate their peers

Better leadership means faster business

When you get technology leadership integration right, the impact extends far beyond individual performance. You create what the Deloitte research calls enterprise agility: the ability to “nimbly strategize and operate” in response to constant change.

The data reveals so much: businesses with integrated technology leadership outperform peers across every meaningful metric. Revenue growth, profit margins, customer satisfaction, employee engagement and market share all improve when business and technology leadership truly collaborate.

But the most significant impact might be speed. Integrated organizations move faster because they eliminate the handoff delays, translation loops and rework cycles that plague siloed structures.

The competitive reality

While you’re optimizing technology leadership integration, your competitors are making a choice. Some will continue the old patterns: hiring smart technologists, giving them business requirements and wondering why transformation is hard.

Others will join the integration revolution. They’ll create conditions where technology leaders thrive. They’ll build strategic collaboration into their organizational DNA. They’ll accelerate past competitors while others struggle with digital theater.

The study reveals that tech vanguard organizations are already pulling away from baseline performers. The gap isn’t just technical: it’s structural, cultural and strategic.

Ready to ramp up?

The path forward isn’t about your next technology hire, it’s about the environment you create for technology leadership to succeed.

Week one: Audit your current integration points. Where does your CTO participate in strategic decision-making? Where are they excluded? Map the information flows and decision rights.

Month one: Redesign your leadership meeting rhythms. Include technology leaders in strategic formation, not just implementation planning. Create forums for substantive business-technology dialogue.

Month two: Implement outcome-based accountability. Replace deliverable tracking with business impact measurement. Align technology leader success metrics with business results.

Month three: Launch translation competence development. Create systematic programs for both business-to-technology and technology-to-business communication improvement.

Month six: Measure integration velocity. How quickly do business insights flow into technology decisions? How rapidly do technological possibilities inform business strategy?

The businesses that systematically build technology leadership integration won’t just transform their trajectory; they’ll transform their markets. They’ll set the pace while competitors struggle to keep up.

The choice is yours: Continue with traditional technology leadership models or build the integration capabilities that drive real transformation.

The rebels are already deciding. What about you?

This article is published as part of the Foundry Expert Contributor Network.
Want to join?

Why CIOs must reimagine ERP as the enterprise’s composable backbone

In my experience leading ERP modernization projects and collaborating with IT and business executives, I’ve learned that technology alone rarely determines success, but mindset and architecture do. Gartner reports, “By 2027, more than 70% of recently implemented ERP initiatives will fail to fully meet their original business case goals.” ERP success now requires a fundamentally different architecture.

For decades, ERP systems have been the core of enterprise operations: managing finance, supply chain, manufacturing, HR and more. The same systems that once promised control and integration are now stifling flexibility, slowing innovation and piling up technical debt.

From what I’ve observed across multiple ERP programs, the problem isn’t ERP itself, but rather, it’s how we’ve come to think about it. Many organizations still treat ERP purely as a system of record, missing the broader opportunity in front of them.

The next era of business agility will be defined by ERP as a composable platform: modular, data-centric, cloud-native and powered by AI. In many of the organizations I’ve worked with, technology leaders aren’t debating whether to modernize the core. Instead, they’re focused on how to do it without stalling the business.

Forbes captures the shift succinctly: “it is anticipated that 75% of global businesses will begin replacing traditional monolithic ERP systems with modular solutions — driven by the need for enhanced flexibility and scalability in business operations.” This highlights ERP’s evolution from monolithic legacy suites to an adaptive, innovation-driven platform.

Those who embrace this shift will make ERP an enabler of innovation. Those who don’t will watch their core systems become their biggest bottleneck and stay held back.

From monoliths to modular backbones

In the 1990s and 2000s, ERP meant one vendor, one codebase and one massive implementation project touching every corner of the business. Companies spent millions customizing software to fit every process nuance.

I saw the next chapter unfold with the cloud era. Companies such as SAP, Oracle, Microsoft and Infor transitioned their portfolios to SaaS, while a wave of startups emerged with modular, industry-focused ERP platforms. APIs and services finally promised a system that could evolve with the business.

In one transformation I supported, our biggest turning point came when we stopped treating ERP as a single implementation. We began decomposing capabilities into modules that business teams could own and evolve independently.

But for many enterprises, that promise never fully materialized. The issue isn’t the technology anymore, but the mindset. In many organizations, ERP is still viewed as a finished installation rather than a living platform meant to grow and adapt.

The cost of the old mindset

Legacy ERP thinking simply can’t keep up with today’s pace of change. The result is slower innovation, fragmented data and IT teams locked in perpetual catch-up mode. Organizations need architectures that change as fast as the business does.

LeanIX, citing Gartner research, highlights the advantage: “Organizations that have adopted a composable approach to IT are 80% faster in new-feature implementation, particularly when using what Gartner defines as composable ERP platforms,” demonstrating the performance gap between modular ERP and traditional monolithic systems.

I’ve seen legacy ERP thinking carry a high price tag in real projects:

  • Inflexibility: Business models evolve faster than software cycles. Traditional ERP can’t keep up.
  • Over-customization: Years of bespoke code make upgrades risky and expensive.
  • Data fragmentation: Multiple ERP instances and disconnected modules create inconsistent data and unreliable analytics.
  • User frustration: Outdated interfaces drive workarounds and disengagement.
  • High total cost of ownership: Maintenance and upgrades consume budgets that should fund innovation.

Enter the composable ERP

The emerging composable ERP model breaks this monolith apart. Gartner defines it as an architecture where enterprise applications are assembled from modular building blocks, connected through APIs and unified by a data fabric.

As LeanIX explains, “Composable ERP, built on modular and interoperable components, allows organizations to respond faster to change by assembling capabilities as needed rather than relying on a rigid, monolithic suite,” illustrating the transition from static ERP systems to a dynamic, adaptable business platform.

Having worked on both sides — custom development and packaged ERP — I’ve learned that the real power of composability lies in how easily teams can assemble, not just integrate, capabilities. Rather than seeing ERP as a single suite, think of it as the system that enables how an enterprise operates. The core processes — finance, supply chain, manufacturing, HR — are what make up the base. Modular features such as AI forecasting, customer analytics and sustainability tracking can plug in dynamically as the business evolves.

This approach enables organizations to:

  • Mix and match modules from different vendors or in-house teams.
  • Integrate best-of-breed cloud apps through standard APIs instead of brittle custom code.
  • Leverage AI for automation, insights and predictive decisions.
  • Deliver persona-based experiences tailored to each user’s role.

Personas: The human face of composable ERP

Traditional ERP treated every user the same, in which there would be one interface, hundreds of menus, endless forms. Composable ERP flips that script with persona-based design, built around what each role needs to accomplish.

  • CFOs see real-time financial health across entities with AI-driven scenario modeling.
  • Supply chain leaders monitor live demand signals, supplier performance and sustainability metrics.
  • Plant managers track IoT-enabled equipment, predictive maintenance and production KPIs.
  • Sales and service teams access operational data seamlessly without switching systems.

From my experience, when ERP is designed around real personas rather than generic transactions, adoption rises and decisions happen faster.

Challenges and pitfalls

These are not theoretical issues; they’re the practical challenges I see IT and business teams grappling with every day.

  • Data governance: Without a unified data strategy, modularity turns to chaos.
  • Integration complexity: APIs require discipline for versioning, authentication, semantic alignment.
  • Vendor lock-in: Even open platforms can create subtle dependencies.
  • Change management: Employees need support and training to unlearn old habits.
  • Security: A more connected system means a larger attack surface. Zero-trust security is essential.

True success demands leadership that balances technical depth with organizational empathy.

The CIO’s new playbook

Through years of ERP work and collaboration between business and IT teams, I’ve realized that the biggest hurdle to ERP success is the belief that ERP is a fixed system instead of a constantly evolving platform for innovation.

This shift isn’t about tools, but rather it’s about redefining the ERP’s role in the business. McKinsey reinforces this reality, stating, “Modernizing the ERP core is not just a technology upgrade — it is a business transformation that enables new capabilities across the enterprise.” It’s a shift that calls for a fundamentally different playbook, especially for CIOs leading modernization efforts.

  1. Start with the business architecture, not the software. Define how you want your enterprise to operate, then design ERP capabilities to fit.
  2. Build a unified data fabric. A composable ERP lives or dies by consistent, high-quality data.
  3. Adopt modular thinking incrementally. Start small by piloting a few modules, prove the value, then scale.
  4. Empower fusion teams. Blend IT, operations and business experts into agile squads that compose solutions quickly.
  5. Measure success by outcomes, not go-lives. The goal is agility and resilience and not a single launch date.
  6. Push vendors for openness. Demand published APIs and true interoperability, not proprietary cloud labels.

Oracle reinforces this imperative: “Companies need to move toward a portfolio that is more adaptable to business change, with composable applications that can be assembled, reassembled and extended,” highlighting flexibility as a core selection criterion.

Reframe ERP as an innovation platform. Encourage experimentation with low-code workflows, analytics and AI copilots.

Looking ahead: When ERP becomes invisible

In a few years, we might not even use the term ERP. Like CRM’s evolution into customer experience platforms, ERP will fade into the background, becoming the invisible digital backbone of the enterprise.

I’ve watched ERP evolve from on-premises to cloud to AI-driven platforms. AI will soon handle transactions and workflows behind the scenes, while employees interact through conversational interfaces and embedded analytics. Instead of logging into systems, they’ll simply request outcomes — and the composable ERP fabric will dynamically orchestrate everything required to deliver them.

That future belongs to organizations rethinking ERP today. This isn’t just another upgrade cycle — it’s a redefinition of how enterprises operate.

From record-keeping to value creation

ERP was once about efficiency — tracking inventory, closing books, enforcing process discipline. Today, it’s about resilience and innovation. From my own journey across multiple ERP programs, I’ve seen that the CIO’s challenge isn’t just keeping systems running, but also architecting agility into how the enterprise operates.

Composable ERP, which is built on cloud, AI and human-centered design, is the blueprint. It turns ERP from a system of record into a system of innovation that evolves as fast as the market around it.

The opportunity is clear: Lead the transformation or risk maintaining yesterday’s architecture while others design tomorrow’s enterprise.

This article is published as part of the Foundry Expert Contributor Network.
Want to join?

LLMエージェントとRAGの実務的な組み合わせ方──ドキュメント検索から“自律アシスタント”へ

なぜRAGだけでは「能動的に動かない」のか

RAGの基本的な仕組みは比較的シンプルです。ユーザーからの質問を意味ベクトルに変換し、その近くに位置する社内ドキュメントやナレッジ記事を検索し、その内容をもとにLLMが回答を生成します。このアプローチにより、モデルが学習していない最新の情報や企業固有のルールに基づいた回答が可能になり、従来のFAQボットよりも柔軟な応答が実現します。

しかし、RAGはあくまで「情報を取り出してくる」能力に特化した仕組みです。ユーザーから明示的な質問が来ない限り動き出さず、「次に何をすべきか」「どんな資料を作るべきか」といったタスクレベルの提案は自発的には行いません。また、多くの場合、RAGシステムはチャットインターフェースの内側に閉じており、社内のワークフローや外部ツールとの連携は限定的です。その結果、便利ではあるものの「検索窓が少し賢くなった」程度のインパクトに留まり、業務全体の生産性を大きく変えるところまでは到達していないケースが目立ちます。

この状況を打破するためには、「情報を探して答える」から一歩進んで、「目的達成のために情報を取りに行き、使いながらタスクを進める」存在としてRAGを組み込む必要があります。ここで鍵になるのが、LLMエージェントとの統合です。

RAGをツールとして扱うエージェントの設計

RAGとエージェントを統合する最も自然な方法は、RAGをエージェントから呼び出す「一つのツール」として扱うことです。エージェントは、タスクを遂行する中で「社内ドキュメントに関連情報がないか調べる必要がある」と判断すると、RAGツールを呼び出します。RAGは質問文を受け取り、関連資料とその要約を返します。エージェントは、その結果を読み解きながら計画を更新し、次のアクションを決めていきます。

例えば、新製品の提案書を作るタスクを考えてみます。ユーザーがエージェントに対して「〇〇業界向けの提案書の叩き台を作って」と指示すると、エージェントはまずRAGを使って、過去の提案書や関連する技術資料、業界レポートを検索します。その内容を要約し、今回の提案に使えそうな要素を整理し、提案書の構成案を作ります。続いて、各セクションのドラフトを書きながら、必要に応じてRAGで追加情報を取りに行きます。最終的には、提案書の骨子と本文ドラフト、参考資料の一覧までをまとめて提示することができます。

この設計のポイントは、RAGが単独でユーザーと対話するのではなく、エージェントの「目」として機能していることです。ユーザーのゴールと全体の流れを理解しているのはエージェント側であり、RAGは必要なときに呼び出される知識リソースという位置づけになります。こうすることで、RAGが持つ「情報へのアクセス能力」と、エージェントが持つ「タスク遂行能力」が自然に統合されます。

ワークフロー全体の中でRAG+エージェントを位置づける

RAGとエージェントを組み合わせるとき、個別のチャット体験だけに注目するのではなく、業務ワークフロー全体の中でどのステップを置き換えるのかを設計する視点が重要です。たとえば、社内の稟議書作成プロセスを考えてみると、関連規程や過去の稟議書の確認、文面のドラフト作成、必要な資料の添付、関係者への説明資料の準備など、多くのステップがあります。

この一連の流れの中で、RAGは規程や過去事例の検索に強みがあります。一方、エージェントは「どの項目をどう埋めるべきか」「どの資料を添付すべきか」といったタスクの流れをコントロールすることができます。したがって、理想的には、稟議システムの画面そのものにエージェントを組み込み、ユーザーが稟議を新規作成すると、エージェントが必要項目の入力をガイドしながら、裏側でRAGを使って参考情報を探し、フィールドごとに候補を埋めていくような体験が望ましいでしょう。

また、ワークフローエンジンと連携させることで、エージェントが単なる文書作成支援を超えて、次のステップのトリガー役を担うこともできます。たとえば、ある条件を満たした稟議が提出されたら、エージェントが自動的に関連部門のレビュー担当者へ説明メモを送付し、必要に応じて質疑応答のサポートも行う、といった具合です。ここでもRAGは、過去の類似案件やQ&Aログの検索に使われ、エージェントは対話とタスク管理の両方を司る存在として動きます。

もちろん、こうした統合には注意点もあります。RAGが返す情報は常に正確とは限らず、古い資料や誤った文書が含まれる可能性もあります。そのため、エージェント側で「情報の新しさ」や「社内での信頼度」を判断するロジックを組み込んだり、人間のレビューを挟むポイントを明示したりすることが重要です。また、RAGにどの範囲の社内文書を読み込ませるかという権限設計も、セキュリティと利便性のバランスを左右します。

RAGとエージェントの組み合わせは、単なる技術的なトリックではなく、企業内の情報フローを再設計するための強力なレバーです。ドキュメント検索の延長線上にとどまらず、「この組織で人が日々行っている情報収集と意思決定プロセスを、どこまでエージェントに肩代わりさせるか」を考えることが、真の価値を引き出す鍵になります。

❌