Reading view

There are new articles available, click to refresh the page.

2025年アフリカ・フィンテック総括:選別と再編の先に見えた「持続可能な成長」

資金は戻るも条件は厳格化──「成長」より「持続性」を買う市場へ

2025年は、資金の流れが完全に止まっていたわけではないことが数字の上でも確認されました。特に上半期は資金調達が積み上がると同時に、M&A(合併・買収)が活発化しました。ここで注目すべきは、フィンテックを中心とした統合が進んだ点です。これは単に伸び悩んだ企業の救済ではなく、規制対応や販路拡大、決済基盤の獲得を見据えた「強くなるための統合」という色合いが濃くなっています。

この「統合」の波は、スタートアップ同士に留まりません。南アフリカでは大手銀行Nedbankが決済フィンテックiKhokhaの買収に合意するなど、銀行がフィンテックを「競合」として排除するのではなく、自社の成長に欠かせない「ピース」として取り込む動きが加速しました。これは2025年における現実的な成長戦略の象徴と言えます。

投資家の視点も変化しました。「売上の急拡大」だけでなく、「規制コスト」「不正対策」「回収率」といった堅実なKPI(重要業績評価指標)が重視されるようになっています。これはネガティブな要素ではなく、市場が成熟している証拠です。 実際、2025年の資金調達環境は過去の落ち込み局面より改善しており、市場は「熱狂」から「検証と継続」へと資金の性質をシフトさせました。

その土台として、モバイルマネー経済圏が「当たり前のインフラ」として定着し続けている点は見逃せません。年間で1兆ドルを超える規模に達したモバイルマネーという巨大なレールの上で、いかに商流・与信・保険・B2B決済といった付加価値を積み上げられるかが、今の競争の軸になっています。

国境を越える決済インフラが「政策」から「商用サービス」へ

2025年のもう一つの主役は、クロスボーダー決済の「実用化」です。これまでアフリカ大陸自由貿易圏(AfCFTA)が掲げてきた域内取引拡大の理念が、決済と為替という現実的な課題解決に向けて動き出しました。

特筆すべきはPAPSS(汎アフリカ決済・決済システム)の進展です。米ドルなどのハードカレンシーを介さずに域内決済を行う構想を推進し、2025年には通貨交換プラットフォームの立ち上げ計画も示されました。為替流動性の低い市場が多いアフリカにおいて、決済そのものより「どう両替するか」という摩擦が解消されれば、航空、商社、中小の輸出入に至るまで、フィンテックが貢献できる余地は格段に広がります。 東・南部アフリカでも地域経済圏COMESAがデジタル小売決済プラットフォームを立ち上げるなど、クロスボーダー決済は単なる送金アプリの利便性向上を超え、貿易やサプライチェーンの生産性に直結するテーマとして扱われ始めました。

また、グローバル企業もアフリカを重要拠点として再定義しています。Visaがヨハネスブルグにアフリカ初のデータセンターを開設したことは、決済インフラにおける「処理能力」と「データ主権」が、単なるコストではなく国家や産業の競争力として認識され始めたことを示唆しています。 既存の巨大プレイヤーであるSafaricomもM-PESAの大規模アップグレードを発表するなど、アフリカのフィンテックは「アプリの発明」段階から、「社会インフラとしての安定運用」を競うフェーズへと移行しています。

規制のアップデートが事業戦略の中核に

2025年は「規制が厳しくなった年」というより、「規制が整備され、事業戦略の一部になった年」でした。これまでグレーゾーンで成長してきた領域ほど、ルールメイキングへの対応が勝敗を分ける局面に入っています。

暗号資産領域では、ケニア議会が規制法案を可決するなど、ライセンスや監督の枠組みを明確化する動きが進みました。これは投資の呼び込みと犯罪対策を両立させるための「制度設計」への一歩です。 与信分野でも同様に、消費者保護や監督の実装が焦点となっています。モバイル起点の即時与信は金融包摂の武器である一方、過剰貸付などの社会課題も孕んでいます。ここから先の成長は、規制順守と表裏一体のものとなるでしょう。

ナイジェリアにおける外為ルールの変更と両替商のライセンス再編に見られるように、マクロ経済の揺れと規制の変更は、フィンテック企業のプロダクト要件そのものになっています。 こうした潮流の先にあるのは、フィンテック企業の「金融機関化」であり、IPO(新規株式公開)の現実味です。AI与信を手がける企業の上場計画などが報じられたのも、規制と市場インフラが整うにつれ、「公開市場で評価される成長モデル」が成立しやすくなっていることを示しています。

2026年に向けて問われるのは、一過性の話題性ではなく、域内決済のレール、与信の健全性、透明性、そして不正対策を含む総合的な「運用力」です。2025年は、アフリカ・フィンテックが「成長の物語」を語る段階を終え、「成長を管理する技術」を競い合う成熟フェーズへ舵を切った転換点として記憶されることになるでしょう。

AI ROI: How to measure the true value of AI

For all the buzz about AI’s potential to transform business, many organizations struggle to ascertain the extent to which their AI implementations are actually working.

Part of this is because AI doesn’t just replace a task or automate a process — rather, it changes how work itself happens, often in ways that are hard to quantify. Measuring that impact means deciding what return really means, and how to connect new forms of digital labor to traditional business outcomes.

“Like everyone else in the world right now, we’re figuring it out as we go,” says Agustina Branz, senior marketing manager at Source86.

That trial-and-error approach is what defines the current conversation about AI ROI.

To help shed light on measuring the value of AI, we spoke to several tech leaders about how their organizations are learning to gauge performance in this area — from simple benchmarks against human work to complex frameworks that track cultural change, cost models, and the hard math of value realization.

The simplest benchmark: Can AI do better than you?

There’s a fundamental question all organizations are starting to ask, one that underlies nearly every AI metric in use today: How well does AI perform a task relative to a human? For Source86’s Branz, that means applying the same yardstick to AI that she uses for human output.

“AI can definitely make work faster, but faster doesn’t mean ROI,” she says. “We try to measure it the same way we do with human output: by whether it drives real results like traffic, qualified leads, and conversions. One KPI that has been useful for us has been cost per qualified outcome, which basically means how much less it costs to get a real result like the ones we were getting before.”

The key is to compare against what humans delivered in the same context. “We try to isolate the impact of AI by running A/B tests between content that uses AI and those that don’t,” she says.

“For instance, when testing AI-generated copy or keyword clusters, we track the same KPIs — traffic, engagement, and conversions — and compare the outcome to human-only outputs,” Branz explains. “Also, we treat AI performance as a directional metric rather than an absolute one. It is super useful for optimization, but definitely not the final judgment.”

Marc‑Aurele Legoux, founder of an organic digital marketing agency, is even more blunt. “Can AI do this better than a human can? If yes, then good. If not, there’s no point to waste money and effort on it,” he says. “As an example, we implemented an AI agent chatbot for one of my luxury travel clients, and it brought in an extra €70,000 [$81,252] in revenue through a single booking.”

The KPIs, he said, were simply these: “Did the lead come from the chatbot? Yes. Did this lead convert? Yes. Thank you, AI chatbot. We would compare AI-generated outcomes — leads, conversions, booked calls —against human-handled equivalents over a fixed period. If the AI matches or outperforms human benchmarks, then it’s a success.”

But this sort of benchmark, while straightforward in theory, becomes much harder in practice. Setting up valid comparisons, controlling for external factors, and attributing results solely to AI is easier said than done.

Hard money: Time, accuracy, and value

The most tangible form of AI ROI involves time and productivity. John Atalla, managing director at Transformativ, calls this “productivity uplift”: “time saved and capacity released,” measured by how long it takes to complete a process or task.

But even clear metrics can miss the full picture. “In early projects, we found our initial KPIs were quite narrow,” he says. “As delivery progressed, we saw improvements in decision quality, customer experience, and even staff engagement that had measurable financial impact.”

That realization led Atalla’s team to create a framework with three lenses: productivity, accuracy, and what he calls “value-realization speed”— “how quickly benefits show up in the business,” whether measured by payback period or by the share of benefits captured in the first 90 days.

The same logic applies at Wolters Kluwer, where Aoife May, product management association director, says her teams help customers compare manual and AI-assisted work for concrete time and cost differences.

“We attribute estimated times to doing tasks such as legal research manually and include an average attorney cost per hour to identify the costs of manual effort. We then estimate the same, but with the assistance of AI.” Customers, she says, “reduce the time they spend on obligation research by up to 60%.”

But time isn’t everything. Atalla’s second lens — decision accuracy — captures gains from fewer errors, rework, and exceptions, which translate directly into lower costs and better customer experiences.

Adrian Dunkley, CEO of StarApple AI, takes the financial view higher up the value chain. “There are three categories of metrics that always matter: efficiency gains, customer spend, and overall ROI,” he says, adding that he tracks “how much money you were able to save using AI, and how much more you were able to get out of your business without spending more.”

Dunkley’s research lab, Section 9, also tackles a subtler question: how to trace AI’s specific contribution when multiple systems interact. He relies on a process known as “impact chaining,” which he “borrowed from my climate research days.” Impact chaining maps each process to its downstream business value to create a “pre-AI expectation of ROI.”

Tom Poutasse, content management director at Wolters Kluwer, also uses impact chaining, and describes it as “tracing how one change or output can influence a series of downstream effects.” In practice, that means showing where automation accelerates value and where human judgment still adds essential accuracy.

Still, even the best metrics matter only if they’re measured correctly. Establishing baselines, attributing results, and accounting for real costs are what turn numbers into ROI — which is where the math starts to get tricky.

Getting the math right: Baselines, attribution, and cost

The math behind the metrics starts with setting clean baselines and ends with understanding how AI reshapes the cost of doing business.

Salome Mikadze, co-founder of Movadex, advises rethinking what you’re measuring: “I tell executives to stop asking ‘what is the model’s accuracy’ and start with ‘what changed in the business once this shipped.’”

Mitadze’s team builds those comparisons into every rollout. “We baseline the pre-AI process, then run controlled rollouts so every metric has a clean counterfactual,” she says. Depending on the organization, that might mean tracking first-response and resolution times in customer support, lead time for code changes in engineering, or win rates and content cycle times in sales. But she says all these metrics include “time-to-value, adoption by active users, and task completion without human rescue, because an unused model has zero ROI.”

But baselines can blur when people and AI share the same workflow, something that spurred Poutasse’s team at Wolters Kluwer to rethink attribution entirely. “We knew from the start that the AI and the human SMEs were both adding value, but in different ways — so just saying ‘the AI did this’ or ‘the humans did that’ wasn’t accurate.”

Their solution was a tagging framework that marks each stage as machine-generated, human-verified, or human-enhanced. That makes it easier to show where automation adds efficiency and where human judgment adds context, creating a truer picture of blended performance.

At a broader level, measuring ROI also means grappling with what AI actually costs. Michael Mansard, principal director at Zuora’s Subscribed Institute, notes that AI upends the economic model that IT has taken for granted since the dawn of the SaaS era.

“Traditional SaaS is expensive to build but has near-zero marginal costs,” Mansard says, “while AI is inexpensive to develop but incurs high, variable operational costs. These shifts challenge seat-based or feature-based models, since they fail when value is tied to what an AI agent accomplishes, not how many people log in.”

Mansard sees some companies experimenting with outcome-based pricing — paying for a percentage of savings or gains, or for specific deliverables such as Zendesk’s $1.50-per-case-resolution model. It’s a moving target: “There isn’t and won’t be one ‘right’ pricing model,” he says. “Many are shifting toward usage-based or outcome-based pricing, where value is tied directly to impact.”

As companies mature in their use of AI, they’re facing a challenge that goes beyond defining ROI once: They’ve got to keep those returns consistent as systems evolve and scale.

Scaling and sustaining ROI

For Movadex’s Mikadze, measurement doesn’t end when an AI system launches. Her framework treats ROI as an ongoing calculation rather than a one-time success metric. “On the cost side we model total cost of ownership, not just inference,” she says. That includes “integration work, evaluation harnesses, data labeling, prompt and retrieval spend, infra and vendor fees, monitoring, and the people running change management.”

Mikadze folds all that into a clear formula: “We report risk-adjusted ROI: gross benefit minus TCO, discounted by safety and reliability signals like hallucination rate, guardrail intervention rate, override rate in human-in-the-loop reviews, data-leak incidents, and model drift that forces retraining.”

Most companies, Mikadze adds, accept a simple benchmark: ROI = (Δ revenue + Δ gross margin + avoided cost) − TCO, with a payback target of less than two quarters for operations use cases and under a year for developer-productivity platforms.

But even a perfect formula can fail in practice if the model isn’t built to scale. “A local, motivated pilot team can generate impressive early wins, but scaling often breaks things,” Mikadze says. Data quality, workflow design, and team incentives rarely grow in sync, and “AI ROI almost never scales cleanly.”

She says she sees the same mistake repeatedly: A tool built for one team gets rebranded as a company-wide initiative without revisiting its assumptions. “If sales expects efficiency gains, product wants insights, and ops hopes for automation, but the model was only ever tuned for one of those, friction is inevitable.”

Her advice is to treat AI as a living product, not a one-off rollout. “Successful teams set very tight success criteria at the experiment stage, then revalidate those goals before scaling,” she says, defining ownership, retraining cadence, and evaluation loops early on to keep the system relevant as it expands.

That kind of long-term discipline depends on infrastructure for measurement itself. StarApple AI’s Dunkley warns that “most companies aren’t even thinking about the cost of doing the actual measuring.” Sustaining ROI, he says, “requires people and systems to track outputs and how those outputs affect business performance. Without that layer, businesses are managing impressions, not measurable impact.”

The soft side of ROI: Culture, adoption, and belief

Even the best metrics fall apart without buy-in. Once you’ve built the spreadsheets and have the dashboards up and running, the long-term success of AI depends on the extent to which people adopt it, trust it, and see its value.

Michael Domanic, head of AI at UserTesting, draws a distinction between “hard” and “squishy” ROI.

“Hard ROI is what most executives are familiar with,” he says. “It refers to measurable business outcomes that can be directly traced back to specific AI deployments.” Those might be improvements in conversion rates, revenue growth, customer retention, or faster feature delivery. “These are tangible business results that can and should be measured with rigor.”

But squishy ROI, Domanic says, is about the human side — the cultural and behavioral shifts that make lasting impact possible. “It reflects the cultural and behavioral shift that happens when employees begin experimenting, discovering new efficiencies, and developing an intuition for how AI can transform their work.” Those outcomes are harder to quantify but, he adds, “they are essential for companies to maintain a competitive edge.” As AI becomes foundational infrastructure, “the boundary between the two will blur. The squishy becomes measurable and the measurable becomes transformative.”

John Pettit, CTO of Promevo, argues that self-reported KPIs that could be seen as falling into the “squishy” category — things like employee sentiment and usage rates — can be powerful leading indicators. “In the initial stages of an AI rollout, self-reported data is one of the most important leading indicators of success,” he says.

When 73% of employees say a new tool improves their productivity, as they did at one client company he worked with, that perception helps drive adoption, even if that productivity boost hasn’t been objectively measured. “Word of mouth based on perception creates a virtuous cycle of adoption,” he says. “Effectiveness of any tool grows over time, mainly by people sharing their successes and others following suit.”

Still, belief doesn’t come automatically. StarApple AI and Section 9’s Dunkley warn that employees often fear AI will erase their credit for success. At one of the companies where Section 9 has been conducting a long-term study, “staff were hesitant to have their work partially attributed to AI; they felt they were being undermined.”

Overcoming that resistance, he says, requires champions who “put in the work to get them comfortable and excited for the AI benefits.” Measuring ROI, in other words, isn’t just about proving that AI works — it’s about proving that people and AI can win together.

What agentic AI really means for IT risk management

Consider the Turing test. Its challenge? Ask some average humans to tell whether they’re interacting with a machine or another human.

The fact of the matter is, generative AI passed the Turing test a few years ago.

I suggested as much to acquaintances who are knowledgeable in the ways of artificial intelligence. Many gave me the old eyeball roll in response. In pitying tones, they let me know I’m just not sophisticated enough to recognize that generative AI didn’t pass Turing’s challenge at all. Why not? I asked. Because the way generative AI works isn’t the same as how human intelligence works, they explained.

Now I could argue with my more AI-sophisticated colleagues but where would the fun be in that? Instead, I’m willing to ignore what “Imitation Game” means. If generative AI doesn’t pass the test, what we need isn’t better AI.

It’s a better test.

What makes AI agentic

Which brings us to the New, Improved, AI Imitation Challenge (NIAIIC).

The NIAIIC still challenges human evaluators to determine whether they’re dealing with a machine or a human. But NIAIIC’s challenge is no longer about conversations.

It’s about something more useful. Namely, dusting. I will personally pay a buck and a half to the first AI team able to deploy a dusting robot — one that can determine which surfaces in an average tester’s home are dusty, and can remove the dust on all of them without breaking or damaging anything along the way.

Clearly, the task to be mastered is one a human could handle without needing detailed instructions (aka “programming”). Patience? Yes, dusting needs quite a bit of that. But instructions? No.

It’s a task with the sorts of benefits claimed for AI by its most enthusiastic proponents: It takes over annoying, boring, and repetitive work from humans, freeing them up for more satisfying responsibilities.

(Yes, I freely admit that I’m projecting my own predilections. If you, unlike me, love to dust and can’t get enough of it … come on over! I’ll even make espresso for you!)

How does NIAIIC fit into the popular AI classification frameworks? It belongs to the class of technologies called “agentic AI” — who comes up with these names? Agentic AI is AI that figures out how to accomplish defined goals on its own. It’s what self-driving vehicles do when they do what they’re supposed to do — pass the “touring test” (sorry).

It’s also what makes agentic AI interesting when compared to earlier forms of AI — those that depended on human experts encoding their skills into a collection of if/then rules, which are alternately known as “expert systems” and “AI that reliably works.”

What’s worrisome is how little distance separates agentic AI from the Worst AI Idea Yet, namely, volitional AI.

With agentic AI, humans define the goals, while the AI figures out how to achieve them. With volitional AI, the AI decides which goals it should try to achieve, then becomes agentic to achieve them.

Once upon a time I didn’t worry much about volitional AI turning into Skynet, on the grounds that, “Except for electricity and semiconductors, it’s doubtful we and a volitional AI would find ourselves competing for resources intensely enough for the killer robot scenario to become a problem for us.”

It’s time to rethink this conclusion. Do some Googling and you’ll discover that some AI chips aren’t even being brought online because there isn’t enough juice to power them.

It takes little imagination to envision a dystopian scenario in which volitional AIs compete with us humans to grab all the electrical generation they can get their virtual paws on. Their needs and ours will overlap, potentially more quickly than we’re able to even define the threat, let alone respond to it.

The tipping point

Speaking more broadly, anyone expending even a tiny amount of carbon-based brainpower regarding the risks of volitional AI will inevitably reach the same conclusion Microsoft Copilot does. I asked Copilot what the biggest risks of volitional AI are. It concluded that:

The biggest risks of volitional AI — AI systems that act with self-directed goals or autonomy — include existential threats, misuse in weaponization, erosion of human control, and amplification of bias and misinformation. These dangers stem from giving AI systems agency beyond narrow task execution, which could destabilize social, economic, and security structures if not carefully governed.

But it’s okay so long as we stay on the right side of the line that separates agentic from volitional AI, isn’t it?

In a word, “no.”

When an agentic AI figures out how it can go about achieving a goal, what it must do is break down the goal assigned to it into smaller goal chunks, and then to break down these chunks into yet smaller chunks.

An agentic AI, that is, ends up setting goals for itself because that’s how planning works. But once it starts to set goals for itself, it becomes volitional by definition.

Which gets us to AI’s IT risk management conundrum.

Traditional risk management identifies bad things that might happen, and crafts contingency plans that explain what the organization should do should the bad thing actually happen.

We can only wish that this framework would be sufficient when we poke and prod an AI implementation.

Agentic AI, and even more so volitional AI, stands this on its head, because when it comes to it, the biggest risk of volitional AI isn’t that an unplanned bad thing has happened. It’s that the AI does what it’s supposed to do.

Volitional AI is, that is, dangerous. Agentic AI might not be as inherently risky, but it’s more than risky enough.

Sad to say, we humans are probably too shortsighted to bother mitigating agentic and volitional AI’s clear and present risks, even risks that could herald the end of human-dominated society.

The likely scenario? We’ll all collectively ignore the risks. Me too. I want my dusting robot and I want it now, the risks to human society be damned.

See also:

칼럼 | 기술은 많을수록 좋은가? 산업을 무시한 IT 투자의 위험한 결과

모방의 함정

오늘날 CIO는 이사회와 사업 부문, 주주로부터 빅테크의 성공 사례를 그대로 따라 하라는 전례 없는 압박에 직면해 있다. 소프트웨어 산업은 매출의 19%를 IT에 지출하는 반면, 숙박 산업의 IT 지출 비중은 3%에도 미치지 않는다.

이러한 차이는 예외적인 현상이 아니라, 다수의 CIO가 빅테크의 플레이북을 모방하는 데 몰두한 나머지 외면하고 있는 근본적인 사실이다. 그 결과, 산업별 가치 창출 방식에 대한 본질적인 오해를 바탕으로 자원이 체계적으로 잘못 배분되고 있다.

  • 다수의 격차: 7개 산업 가운데 5개 산업이 산업 평균 이하의 IT 지출을 보이며, 벤치마크에 맹목적으로 의존한 전략의 위험성을 드러낸다.
  • 맥락의 중요성: 기술 자체가 곧 제품인 산업(소프트웨어)과, 제품을 가능하게 하는 수단인 산업(숙박, 부동산)은 근본적으로 다른 지출 구조를 보인다.

이러한 격차는 기업 기술 전략의 치명적인 결함을 드러낸다. 아마존, 구글, 마이크로소프트에서 통하는 방식이 모든 산업에서도 그대로 작동할 것이라는 위험한 가정이다. 이 같은 획일적 사고방식은 기술을 전략 자산이 아닌 값비싼 주의 분산 요소로 전락시켰다.

연도IT 지출 성장률(A)실질 GDP 성장률(B)성장률 격차(A-B)
2016-2.9%3.4%-6.3%
20172.9%3.8%-0.9%
20185.7%3.6%2.1%
20192.7%2.8%-0.1%
2020-5.3%-3.1%-2.2%
202113.9%6.2%7.7%
20229.8%3.5%6.3%
20232.2%3.0%-0.8%
20249.5%3.2%6.3%
20257.9%2.8%5.1%
표1 IT 지출과 실질 GDP 성장률 간 격차 분석 (출처: IT 지출 – 가트너, GDP – 국제통화기금(IMF)

가트너에 따르면 “2025년 글로벌 IT 지출은 7.9% 성장한 5조 4,300억 달러(약 8,014조 원)에 이를 것”으로 전망된다. IMF 세계경제전망(IMF WEO) 데이터를 기준으로 보면, IT 지출은 실질 GDP 성장률을 지속적으로 상회해 왔다. 지난 10년간 글로벌 IT 지출은 연평균 약 5% 성장한 반면, 실질 GDP는 약 3% 성장에 그쳐 연간 약 2%포인트의 격차가 발생했다.

이러한 추세는 디지털 성숙도와 기술 도입 확대를 보여주는 동시에, IT 투자의 순환적 특성을 드러낸다. 코로나19 이후의 디지털 가속 국면이나 2023~2024년 생성형 AI 열풍처럼 기대가 과도하게 높아진 시기는, 과장된 지출이 지속적인 가치로 이어지지 못하면서 조정 국면으로 이어져 왔다.

또한 IT 프로그램의 실패율은 대부분의 엔지니어링 산업보다 현저히 높으며, 소비재(FMCG)나 스타트업 환경과 유사한 수준을 보인다. 이 가운데 디지털 및 AI 기반 이니셔티브는 특히 실패율이 높은 것으로 나타난다. 그 결과, 증가한 IT 지출이 모두 사업 가치로 전환되지는 않는다.

이러한 경험에 비춰볼 때, IT의 전략적 가치는 산업별 가치 창출을 얼마나 효과적으로 해결하는지로 평가돼야 한다. 산업마다 기술 집약도와 가치 창출의 역학은 크게 다르다. 따라서 CIO는 유행에 휩쓸린 의사결정을 경계하고, 자사 산업의 가치 창출 구조를 기준으로 IT 투자를 바라보며 경쟁 우위를 강화해야 한다. 산업 현실과 성숙도 차이에 따라 IT 전략이 왜 달라지는지를 이해하려면, 비즈니스 모델이 기술의 역할을 어떻게 규정하는지 살펴볼 필요가 있다.

비즈니스 모델의 미로

기술 유행을 쫓기보다 사업 성과에 자금을 투입하는 일은 말처럼 쉽지 않다. 기술 과장의 흐름과 사업의 현실이 맞부딪히며 복잡한 미로를 만들어내기 때문이다. 그러나 IT의 역할은 보편적이지 않으며, 산업에 따라 사업적 의미는 달라진다. 이러한 차이는 서비스 경제가 기술 활용을 좌우하는 숙박 산업에서 크게 드러난다.

숙박 산업

숙박 산업에서는 비즈니스 모델에 따라 서비스의 구조가 달라지며, 이에 따라 기술이 수행하는 역할 역시 다르다. 따라서 리더는 기술이 어떤 방식으로 작동해야 하는지를 명확히 이해할 필요가 있다.

• 저가형 숙박: 기술은 비용을 절감해 수익성을 높이는 역할을 한다.
• 프리미엄 숙박: 기술은 서비스를 보조하지만, 가치를 만들어내는 핵심은 인간적 접점이다.

경험상 이러한 차이를 정확히 이해하고 체화하는 것이 매우 중요하다. 간편한 디지털 체크인은 운영 효율성을 높일 수 있지만, 고급 호텔에서 고객이 개인화된 응대 대신 자동화된 시스템의 미로를 마주하게 된다면 기술은 오히려 본래 목적을 스스로 무너뜨리게 된다.

그 이유는 숙박 산업의 비즈니스 모델이 인간적 상호작용을 기반으로 설계돼 있기 때문이다. 브랜드가 약속하는 핵심 가치는 사람 간의 연결에 있으며, 타지와 같은 럭셔리 호텔의 경쟁 우위 역시 여기에 있다. 과도한 자동화는 이러한 강점을 적극적으로 훼손한다.

이러한 대비는 부동산 산업을 살펴보면 더욱 분명해진다. 기술적 야망과 비즈니스의 기본 구조가 어긋날 경우, 위워크 사례에서 보듯 정체성에 기반한 리스크로 이어질 수 있다.

부동산 산업

위워크는 스스로와 투자자 모두를 설득해 자신을 기술 기업으로 인식하게 만든 부동산 회사였다. 그러나 사업의 현실이 재무제표와 맞닥뜨리면서 결과는 극적인 붕괴로 이어졌고, 이는 곧 정체성의 위기로 귀결됐다. 핵심 사업은 물리적 공간을 임대하는 데 있었지만, 기술 기업이라는 서사는 운영 현실과 완전히 동떨어진 가치 평가와 전략을 이끌었다. 그 결과, 위워크는 기업 가치 470억 달러에서 파산에 이르는 추락을 겪었다.

본질적으로 부동산 산업의 비즈니스 모델은 장기 거래 주기를 가진 물리적 자산을 기반으로 하며, 이로 인해 IT는 보조적 기능에 머무르게 된다. 이 산업에서 IT의 역할은 가치 제안을 재편하는 것이 아니라, 자산 운영을 지원하고 마진을 방어하는 데 있다. 경험상 이러한 산업에서 IT를 과도하게 설계하더라도 가치 창출의 축은 좀처럼 이동하지 않는다. 반면, 하이테크 산업은 기술이 단순한 수단이 아니라 비즈니스 그 자체인 경우에 해당한다.

하이테크 산업

하이테크 산업에서는 기술 그 자체가 곧 제품이다. 비즈니스 모델이 디지털 플랫폼을 기반으로 구축돼 있으며, 기술 역량이 곧 시장 리더십을 좌우한다. 이 때문에 IT 지출은 비즈니스 모델의 핵심 요소로 작동하며, 자동화와 데이터 수익화를 위한 전략적 무기로 활용된다.

소프트웨어 기업은 매출의 약 19%를 IT에 투입하는 반면, 숙박 기업의 IT 지출 비중은 3%에도 미치지 않는다. 이러한 16%포인트의 격차는 단순한 통계가 아니라 전략적 신호다. 서로 극단적으로 다른 산업에 동일한 IT 플레이북을 적용하는 것이 왜 비효율적일 뿐 아니라 잠재적으로 위험한지를 분명히 보여준다. 소프트웨어 기업에서 효과적인 전략이 숙박 브랜드에는 무의미하거나 오히려 해가 될 수 있다. 이러한 산업별 사례는 유행에 따른 결정을 거부하고, 기술 투자를 비즈니스의 본질에 고정할 수 있는 리더십 역량이라는 더 깊은 과제를 드러낸다.

유행을 넘어, 비즈니스의 진실에 기술을 고정하라

디지털 전환에 집착하는 환경에서 CIO에게 필요한 것은 사업 현실과 맞지 않는 이니셔티브를 걸러낼 수 있는 전략적 분별력이다. 관찰 결과, 경쟁 우위는 보편적인 모범 사례에서 나오는 것이 아니라 맥락에 맞춘 최적화에서 만들어진다.

이는 혁신을 피하자는 의미가 아니다. 비용만 늘리는 무관함을 피하자는 것이다. 가장 성공적인 기술 리더는 최신 유행을 구현하는 사람이 아니라, 자사 비즈니스를 독특하게 만드는 요소가 무엇인지를 이성적으로 분석하고 이를 강화하는 선택을 내리는 사람이다.

하이테크 산업을 제외한 대부분의 산업에서 기술은 제품과 서비스를 대체하기보다 이를 가능하게 하는 역할을 한다. 데이터는 수익화 대상이 아니라 의사결정을 지원하는 수단에 가깝다. 시장 지위는 산업 고유의 요인에 의해 결정되며, 성과는 플랫폼 효과보다는 운영 효율성과 고객 만족에서 나온다.

새로운 영역을 모두 좇는 전략은 대담해 보일 수 있지만, 지속적인 경쟁 우위는 무엇을 도입할지, 언제 도입할지, 무엇을 과감히 무시할지를 아는 데서 비롯된다. 아마존의 플랫폼 지배력, 구글의 데이터 수익화, 애플의 폐쇄형 생태계는 강력한 성공 서사를 만들어냈지만, 이는 디지털 네이티브 비즈니스 모델이라는 특정 맥락에 묶여 있다. 이러한 플레이북은 해당 환경에서는 효과적일 수 있으나, 다른 산업에는 맞지 않을 수 있으며 무비판적인 복제는 오해를 낳기 쉽다.

결국 CIO는 이러한 유혹에 저항하고, IT 전략을 자사 산업의 핵심 가치 동인에 맞춰 정렬해야 한다. 이 모든 논의는 하나의 단순하지만 강력한 진실로 귀결된다. 맥락은 제약이 아니라 경쟁 우위다.

결론: 맥락이 만드는 경쟁력

소프트웨어 산업과 숙박 산업 간 IT 지출 격차는 해결해야 할 문제가 아니라 받아들여야 할 현실이다. 산업마다 가치를 창출하는 방식은 근본적으로 다르며, 기술 전략 역시 이러한 진실을 반영해야 한다.

성과를 내는 기업은 기술을 활용해 경쟁 우위를 더욱 선명하게 만든다. 차별화 요소는 강화하고, 제약 요인은 제거하며, 기술이 진정한 신규 가치를 열어주는 영역에서만 선택적으로 확장한다. 이 모든 판단은 핵심 비즈니스 논리에 단단히 고정돼 있다.

신기술을 통해 장기적인 가치를 창출하는 길은 맹목적인 도입이 아니라 현실에 기반한 적용에 있다. 전환 경쟁이 치열해질수록 가장 현명한 CIO는 비즈니스의 본질을 버리기보다 이를 존중하는 기술 결정을 내리는 사람이다. 미래는 가장 많은 기술을 도입한 기업이 아니라, 올바른 이유로 올바른 기술을 선택한 기업의 몫이다.

*편집자 주:이 컬럼은 필자의 독립적인 통찰과 관점을 반영한 것으로, 어떠한 공식적 보증도 담고 있지 않다. 특정 기업, 제품 또는 서비스를 홍보하지 않습니다.
dl-ciokorea@foundryco.com

AI 성공의 출발점, 기업 데이터 전략을 바꾸는 8가지 원칙

IBM의 데이터 담당 부사장 겸 최고데이터책임자(CDO)인 에드 러블리는 혁신적인 AI 전략을 구축하려는 조직이라면 무엇보다 경쟁력 있는 데이터 전략을 먼저 갖춰야 한다고 조언한다. AI를 확장하는 관점에서 보면 데이터는 근간이기 때문이다.

하지만 러블리에 따르면, 실제로 AI 목표에 부합하는 데이터 아키텍처를 갖춘 조직은 많지 않다. 대신 일관된 데이터 표준에 따라 관리되지 않는 사일로형 데이터가 여전히 존재한다. 이는 전사적 인공지능 배포를 지원하기보다는 특정 시점의 의사결정을 제공하기 위해 애플리케이션 단위로 IT 환경을 구축해 온 기존 엔터프라이즈 데이터 전략의 결과다.

IBM이 2025년에 발표한 연구 보고서 ‘AI 야망은 커지고 있지만, 기업 데이터는 준비됐는가?’는 많은 조직이 데이터 문제로 어려움을 겪고 있음을 보여준다. 이 조사에 따르면 전 세계 1,700명의 CDO 가운데, 데이터가 새로운 AI 기반 수익원을 지원할 수 있다고 확신한 응답자는 26%에 그쳤다.

러블리는 해법으로 데이터가 생성되는 위치와 관계없이 동일한 표준과 거버넌스, 메타데이터를 적용하는 통합 전사 데이터 아키텍처가 필요하다고 설명했다.

데이터 전략을 업데이트해야 한다는 인식은 러블리만의 견해가 아니다.

IDC 글로벌 데이터스피어 및 글로벌 스토리지스피어 연구 프로그램의 연구 매니저이자 2025년 보고서 ‘생성형 AI 시대의 콘텐츠 생성’ 공동 저자인 애덤 라이트는 “AI는 데이터의 활용 방식뿐 아니라 활용 목적과 가치가 창출되는 지점까지 바꾸고 있다”라며 “대부분의 조직은 이러한 변화에 맞춰 데이터 전략을 현대화할 필요가 있다”라고 분석했다.

라이트는 “기존 데이터 전략은 보고, BI, 자동화를 위해 설계됐지만, AI는 반복적이고 모델 중심적인 워크플로를 구동할 수 있는 훨씬 더 역동적이고 세분화된 실시간 데이터 파이프라인을 요구한다”라며 “이는 정적인 데이터 거버넌스에서 벗어나 지속적인 데이터 품질 모니터링, 강화된 메타데이터와 계보 추적, 그리고 일시적·캐시·저장 데이터가 혼재된 AI 특성을 반영한 보존 정책으로의 전환을 의미한다”라고 설명했다.

이어 그는 “AI 시대에는 모든 데이터를 수집하고 저장하려는 사고방식에서 벗어나, 비용과 위험, 그리고 달성하려는 구체적인 AI 성과를 균형 있게 고려하는 목적 지향적 데이터 전략으로 진화해야 한다”라고 덧붙였다.

성숙도가 높은 데이터 기반

대부분의 조직은 아직 이러한 목표와 거리가 멀다. IDC의 애덤 라이트는 “많은 조직이 AI 활용 사례를 지원하는 데 필요한 ‘적절한’ 데이터를 확보하는 데 여전히 어려움을 겪고 있다”라며 “이는 데이터의 충분한 양, 적절한 품질, 또는 필요한 맥락 메타데이터 중 어느 하나라도 부족한 경우를 포함한다”라고 설명했다.

그는 이어 “IDC 연구와 업계 논의를 보면 데이터 준비도는 AI 가치를 실현하는 데 가장 큰 장애 요인 중 하나로 꾸준히 지목되며, 종종 컴퓨팅 비용이나 모델 선택보다 더 큰 문제로 인식된다”라고 말했다. 또한 “대부분의 기업은 여전히 분절된 시스템과 일관성 없는 거버넌스, 그리고 실제로 어떤 데이터를 보유하고 있으며 그 데이터가 얼마나 신뢰할 수 있는지에 대한 제한적인 가시성 문제를 안고 있다”라고 분석했다.

러블리는 IBM 역시 과거에는 이러한 문제를 다수 겪었지만, 지난 3년간 데이터를 AI에 적합한 상태로 만들기 위해 이를 해결하는 데 집중해 왔다고 설명했다.

AI 시대를 겨냥한 IBM의 데이터 전략은 오랜 기간 유지해 온 기존 접근 방식에 대한 여러 변화를 포함하고 있으며, 이를 통해 러블리가 말하는 통합 전사 데이터 아키텍처를 구축할 수 있었다. 예를 들어 IBM은 데이터 오너라는 개념을 유지하면서도, 해당 데이터가 특정 조직이 아닌 IBM 전체의 자산이라는 점을 이해하도록 했다. 러블리는 “데이터를 통제되고 안전한 방식으로 민주화할 수 있다면, 비즈니스를 더 효율적이고 생산적으로 운영할 수 있다”라고 설명했다.

그 결과 IBM은 여러 팀이 사일로 형태로 데이터를 관리하던 구조에서 벗어나, 공통 표준과 공통 아키텍처를 사용하는 단일 조직 체계로 전환했다. 또한 전사 리더는 300테라바이트 규모의 데이터를 통합하고, 회사가 추구하는 성과와 이를 이끄는 워크플로를 기준으로 필요한 데이터를 선별했다.

러블리는 “의도적으로 접근했다”라고 설명하며, 현재 IBM의 데이터 플랫폼이 전체 워크플로의 약 80%를 포괄하고 있다고 밝혔다. 그는 이어 “오늘날 기업에서 가장 큰 생산성 향상 요인 가운데 하나는 통합 전사 데이터 아키텍처를 구축하는 것”이라며 “데이터에 대한 투자가 있었기에 IBM은 AI를 전사적으로 빠르게 도입할 수 있었다”라고 말했다.

더 나은 데이터 전략을 구축하기 위한 8가지 제언

데이터 기반과 데이터 활용 역량에서 높은 성숙도를 달성하려면, 조직은 AI 시대에 맞는 데이터 전략이 필요하다. 이는 데이터 품질을 강화하고 데이터 사일로를 해소하며, 비즈니스가 우선순위로 삼은 AI 활용 사례에 데이터 역량을 정렬하는 전략이다.

업계 전문가는 다음과 같은 실행 단계를 제시한다.

1. 데이터 소유 개념을 재정의하라

IDC의 라이트는 “데이터 소유를 순수한 IT 문제로만 다루는 전통적 모델은 더 이상 유효하지 않다”라며 “사업부, 제품 조직, AI 플랫폼이 지속적으로 데이터를 생성하고 변환하는 환경에서는 이러한 접근이 작동하지 않는다”라고 설명했다. 그는 “이상적으로는 CDO와 같은 고위 데이터 리더가 명확한 책임을 져야 하지만, CDO가 없는 조직이라면 IT, 보안, 사업 부문 전반에 걸쳐 데이터 거버넌스 책임을 명확하게 분산해야 한다”라고 말했다.

또한 그는 “정책을 정의하는 단일한 권한 창구와 실행을 담당하는 연합형 모델을 함께 갖추는 것이 중요하다”라며 “이를 통해 사업부의 자율성은 유지하되, 통제되지 않은 상태는 피할 수 있다”라고 덧붙였다.

세인트토머스대학교 소프트웨어공학·데이터사이언스학과 학과장이자 응용 인공지능 센터 소장인 만짓 레게는 데이터 오너의 역할을 데이터 관리자, 즉 데이터 스튜어드로 재정의할 것을 권고했다. 레게는 이들이 데이터를 소유하는 존재가 아니라, 중앙 데이터 조직이 정한 표준과 거버넌스, 보안, 상호운용성을 기반으로 데이터의 의미와 품질을 책임지는 역할을 맡아야 한다고 설명했다.

2. 데이터 사일로를 해소하라

이를 위해 라이트는 “생성형 AI는 워크플로와 프로세스, 데이터 소스가 전사적으로 연결될 때에만 가치를 창출하기 때문에, CIO는 공통의 AI 및 데이터 성과를 중심으로 사업 부문을 정렬해야 한다”라고 설명했다.

그는 이어 “이를 위해서는 크로스펑셔널 거버넌스를 구축하고, 분류 체계와 정책을 표준화하며, 데이터를 보호하기보다 공유하도록 유도하는 인센티브를 마련해야 한다”라고 말했다. 또한 “통합 플랫폼, 메타데이터 계층, 공통 보안 프레임워크 같은 기술도 도움이 되지만, 진정한 전환을 이끄는 요소는 C레벨과 주요 비즈니스 이해관계자 전반에 걸친 조율된 리더십”이라고 설명했다.

3. AI 시대를 위한 데이터 기술에 투자하라

라이트는 AI 시대에 필요한 데이터 기술로 현대적인 데이터 레이크와 데이터 레이크하우스, 벡터 데이터베이스, 확장형 오브젝트 스토리지를 꼽았다. 그는 이러한 기술이 “강력한 거버넌스를 유지하면서도 대용량의 멀티모달 데이터를 처리할 수 있다”라고 설명했다.

또한 조직은 AI 워크플로가 처음부터 끝까지 안정적으로 작동하도록 데이터 수집, 정제, 변환, 이동을 자동화하는 오케스트레이션 및 파이프라인 도구를 갖춰야 한다. 모델이 데이터의 맥락을 이해하고 계보를 추적하며 구조화 데이터와 비구조화 데이터를 안전하고 신뢰성 있게 활용하려면 메타데이터 엔진과 거버넌스 계층 역시 필수적이다.

만짓 레게는 “모듈형이며 거버넌스가 적용되고, 지속적으로 진화할 수 있는 데이터 플랫폼 계층을 구축해야 한다”라고 조언했다. 그는 “데이터를 단일 파이프라인을 위한 자원이 아니라 재사용 가능한 제품으로 다룰 수 있어야 하며, 배치 처리와 실시간 요구를 모두 지원할 수 있는 아키텍처가 필요하다”라고 설명했다.

레게는 데이터 레이크와 데이터 레이크하우스에 대해서도 긍정적인 평가를 내렸다. 그는 이들 기술이 구조화 데이터와 비구조화 데이터를 모두 처리할 수 있어 “AI의 핵심 기반으로 자리 잡고 있다”라고 말했다.

또한 쏘트웍스의 최고 AI·데이터 책임자인 샤얀 모한티는 CIO에게 모듈형 기술과 유연한 구조를 갖춘 컴포저블 엔터프라이즈를 구축할 것을 권고했다. 이를 통해 사람과 AI가 여러 계층에 걸쳐 데이터에 접근하고 협업할 수 있다는 설명이다.

전문가들은 데이터 라이프사이클의 변화에 대응하는 기술 투자도 중요하다고 조언한다.

라이트는 “생성형 AI는 데이터 라이프사이클을 근본적으로 재편하고 있으며, 일시적 데이터, 캐시 데이터, 영구 저장 데이터가 훨씬 더 역동적으로 혼재되는 환경을 만들고 있다”라고 설명했다. 그는 “대부분의 생성형 AI 결과물은 수 초에서 수 분, 길어야 수 시간만 사용되기 때문에, 빠른 반복과 캐싱, 변동성이 큰 워크플로를 처리할 수 있는 DRAM과 SSD 같은 고성능 인프라에 대한 수요가 커지고 있다”라고 말했다.

반면 그는 “최종 문서, 승인된 미디어 자산, 합성 학습 데이터, 규제 대응과 관련된 콘텐츠 등 일부 생성형 AI 결과물은 장기간 보존된다”라며 “이러한 데이터는 여전히 비용 효율적이면서 대용량을 제공하는 HDD 기반 스토리지에 크게 의존하고 있다”라고 설명했다. 이어 “생성형 AI 도입이 확대될수록, 초고속 메모리를 활용한 일시적 콘텐츠 처리부터 HDD 기반의 견고한 아카이브까지 전 주기를 포괄하는 데이터 전략이 필요해질 것”이라며 “스토리지 부담과 구조 자체가 변화하고 있기 때문”이라고 분석했다.

4. 데이터 아키텍처에 자동화와 지능 요소를 더하라

모한티는 기업 데이터 환경이 열악한 원인으로 데이터 생산자와 데이터 소비자 간의 단절을 지목했다. 그는 생성된 데이터가 이른바 데이터 웨어하우스라는 “어딘가의 거대한 더미”에 쌓인 뒤, 이를 활용하기 위해 별도의 분석 계층을 덧붙이는 방식이 일반적이라고 설명했다. 이러한 접근은 실제로 작동하게 만들기 위해 많은 인적 지식과 수작업을 필요로 한다는 지적이다.

이에 따라 모한티는 데이터 생산자와 데이터 소비자의 거리를 좁히기 위해 데이터 제품 관점을 도입하고, 필요할 때 AI가 적절한 데이터를 식별하고 접근할 수 있도록 전사 아키텍처에 자동화와 지능을 추가해야 한다고 조언했다.

그는 CIO가 모델 컨텍스트 프로토콜(MCP)을 활용해 데이터를 감싸고, 프로토콜 수준의 접근 방식을 제공할 수 있다고 설명했다. 다만 이를 위해서는 데이터의 발견 가능성을 보장할 수 있도록, 조직이 데이터 카탈로그와 도구 전반에 걸쳐 관련 정보를 체계적으로 인코딩해야 한다고 덧붙였다.

5. 구조화·비구조화 데이터를 AI에 맞게 준비하라

라이트는 “구조화 데이터는 일관된 형식으로 정리되고, 적절한 거버넌스가 적용되며, 정확한 메타데이터로 보강될 때 AI에 적합한 상태가 된다”라며 “이 경우 모델이 데이터를 이해하고 활용하기가 훨씬 쉬워진다”라고 설명했다. 그는 “조직은 강력한 데이터 품질 관리와 마스터 데이터 관리, 명확한 책임 체계를 우선적으로 구축해 구조화 데이터셋이 신뢰성과 상호운용성을 유지하고, 특정 AI 활용 사례에 맞게 정렬되도록 해야 한다”라고 말했다.

전문가들은 이러한 규율을 비구조화 데이터에도 동일하게 적용해야 한다고 강조한다. 비구조화 데이터 역시 적절한 태깅과 분류, 메타데이터 보강을 통해 AI 시스템이 효과적으로 이해하고 검색할 수 있도록 준비돼야 한다는 설명이다.

만짓 레게는 “비구조화 데이터를 일급 데이터 자산으로 다뤄야 한다”라며 “고객 서비스 음성 통화, 메시지, 문서와 같은 비구조화 데이터에 가장 흥미로운 AI 활용 사례가 존재하지만, 많은 조직에서 여전히 비구조화 데이터는 사각지대로 남아 있다”라고 지적했다.

레게는 이러한 비구조화 데이터를 검색 가능한 형태로 활용하기 위해 벡터 데이터베이스에 저장할 것을 권고했다.

6. 외부 데이터 소스와 합성 데이터 활용을 검토하라

라이트는 “기존 데이터가 불완전하거나 편향돼 있거나, 규모가 부족하거나, 추진하려는 AI 활용 사례와 충분히 맞지 않는 경우에는 외부 데이터나 합성 데이터가 필요한지 반드시 검토해야 한다”라고 말했다. 그는 “합성 데이터는 실제 데이터가 민감하거나 수집 비용이 높고, 개인정보 보호나 규제, 운영상의 제약으로 활용이 제한될 때 특히 유용하다”라고 설명했다.

7. 고성숙도 데이터 기반을 단계적으로 구축하라

세일즈포스의 전사 IT 전략 담당 수석부사장인 시바니 아후자는 데이터가 완벽하게 정비될 때까지 기다리지 말라고 조언했다.

아후자는 “모든 데이터를 완벽하게 준비한 뒤에야 본격적으로 시작할 수 있다고 느끼는 조직이 있지만, 동시에 AI 여정을 시작하라는 압박도 받고 있다”라고 설명했다.

그는 대부분의 전사 프로그램이 성숙해 가는 과정과 마찬가지로, AI 시대를 위한 데이터 프로그램 역시 점진적인 접근이 필요하다고 강조했다. CIO와 경영진은 단계적으로 데이터 프로그램을 구축할 수 있고, 또 그렇게 해야 한다는 것이다.

아후자는 하나의 AI 기반 성과를 지원하는 데이터 전략과 아키텍처를 먼저 구축한 뒤, 이를 바탕으로 다음 성과로 확장해 나가는 방식으로 데이터 프로그램을 고도화할 것을 권고했다.

그는 “필요한 결과에서 거꾸로 설계하는 사고방식”이라며 “운영 환경에 배포하고, 적절한 가드레일을 갖췄는지 확인한 뒤 이를 관찰하고 조정해 확장성을 확보한 다음, 다음 단계를 진행하면 된다”라고 설명했다.

8. 데이터 조직을 전사 협업 구조로 구축하라

라이트는 “데이터는 IT, 데이터 거버넌스, 보안, 그리고 실제로 데이터를 활용해 의사결정을 내리는 사업 부문을 모두 아우르는 크로스펑셔널 생태계의 지원을 받아야 한다”라고 설명했다.

그는 “AI 시대의 데이터 전략은 이들 조직이 공동으로 책임을 나눌 때 가장 효과적으로 작동한다”라며 “IT 조직은 인프라를 뒷받침하고, 거버넌스 조직은 신뢰성과 품질을 보장하며, 사업 조직은 데이터의 맥락과 가치를 정의하는 역할을 맡아야 한다”라고 말했다.
dl-ciokorea@foundryco.com

Google unveils Budget Tracker and BATS framework to rein in AI agent costs

Google’s AI research division, in collaboration with researchers from New York University and UC Santa Barbara, has launched a new tool and framework that they claim can rein in agent behavior by placing explicit limits on how much compute agents can consume and how freely they can invoke tools.

The tool, called Budget Tracker, is a plug-in module that injects continuous budget awareness into an agent’s reasoning loop, explicitly signaling how much token and tool-call budget remains so the agent can condition its actions on real-time resource availability, the researchers explained in a paper.

How autonomous agents choose to think, loop, and act when completing a task or user request is quietly inflating enterprise AI budgets, which is increasingly turning into a CIO nightmare.

A research report from IDC cited 92% of 318 decision makers surveyed in the US, UK, and Ireland saying that the cost of their deployed AI agents was higher than expected, with inference being the most common cause.

Another report — Greyhound CIO Pulse 2025 — found that 68% of digital leaders surveyed said that they hit major budget overruns during their first few deployments of agents, and nearly half of these leaders pointed to runaway tool loops and recursive logic being the driver behind the overruns.

That budget signal doesn’t stop at individual agents. Google researchers have also launched a framework, named Budget Aware Test-time Scaling (BATS), that builds on the tracker-driven awareness in an agent and tries to adapt the same to a larger multi-agent system.

This enables large, multi-agent systems to determine when it’s worth “digging deeper” into a promising line of reasoning versus when to pivot to alternative paths, thereby improving cost-performance trade-offs under tight budget constraints, the researchers wrote.

Practical path to TCO for agentic AI

Analysts say the tool and framework could offer CIOs a practical path to understand and control costs around agentic deployments.

“The tool and the framework address one of the most pressing questions facing CFOs and CIOs: the true total cost of ownership (TCO) for agentic AI operations. And for enterprise adoption of any technology, TCO is very important,” said Pareekh Jain, principal analyst at Pareekh Consulting.

“Most CIOs would rather accept a predictable agentic system that delivers 90% accuracy at a capped cost than a higher-accuracy system whose per-run cost can vary wildly from a few cents to several dollars,” Jain added.

Seconding Jain, IT management consulting firm Avasant’s research director, Gaurav Dewan, pointed out that many enterprises deploy agents under the assumption that inference is “cheap enough” at scale.

In practice, however, Dewan said, costs grow non-linearly as agents are often deployed without hard budget caps, execution limits, or reasoning constraints.

He further noted that spending is amplified in multi-agent architectures as agents delegate tasks to other agents.

The tool and the framework mark a “big shift” from approaches that similar tools take, according to Greyhound Research Chief Analyst Sanchit Vir Gogia.

“Right now, the tooling landscape is a mess. Plenty of platforms say they optimize agent efficiency, but few actually engage with the problem at runtime. Most solutions in the market operate on a delay; they aggregate usage data, send reports, or shut things down when it’s already too late. That’s not cost governance. That’s damage control,” Gogia said.

The analyst was referring to tools such as LangSmith (LangChain) & Helicone, which offer observability by logging how much an agent spent.

In contrast, Google’s Budget Tracker and BATS frameworks introduce budget awareness directly into the decision loop, giving agents real-time feedback about what they have spent, what’s left, and what’s worth doing next, that too without the need to babysit the agent, Gogia said.

In the absence of a framework like BATS, enterprises typically had to cobble together throttling rules, hard-coded prompt tweaks, and caching strategies to control costs around the agentic system, Gogia added.

Caveats to enterprise adoption

Despite the differentiated approach of the new tool and framework, analysts caution that they might not be a silver bullet in tackling cost overruns around agentic deployments on their own.

CIOs, according to Dewan, are likely to favor the tool or framework if Google integrates natively with existing agent frameworks and offers policy-driven controls spread granularly across all agents, workflows, and business units. “What CIOs need is enforcement, observability, and auditability in one place,” Gogia said. “They want to know what the agent spent, why it made that decision, what path it took, and whether it stayed within bounds. Especially in regulated sectors, where tool usage may touch PII or trigger downstream financial systems, audit trails are non-negotiable.”

“기업 AI 예산 두 배 증가···약 30%는 에이전틱 AI에 배정” 세일즈포스 조사

11월 말 공개된 이번 조사에서는 에이전틱 AI에 대한 투자 확대도 확인됐다. 응답자들은 전체 AI 예산의 약 30%를 에이전틱 AI에 배정하고 있다고 답했으며, 96%는 이미 도입했거나 향후 2년 내 도입할 계획이라고 밝혔다. 특히 고객 서비스 등 고객 접점 영역에서 AI 에이전트 활용이 증가하고 있다는 응답이 많았다.

실제로 CIO의 65%는 에이전틱 AI 도입 이후 고객 서비스 부문과의 협업이 가장 많다고 답했으며, 해당 부문이 활용 사례와 도입 준비 수준 등 주요 지표에서 상대적으로 높은 평가를 받았다. 고객 서비스에 이어 마케팅, 영업, 금융, 인사 부문 순으로 에이전틱 AI의 활용도와 준비 수준이 높게 나타났다.

세일즈포스가 발표한 ‘에이전틱 엔터프라이즈 지수(Agentic Enterprise Index)’에서도 관련 경향이 제시됐다. 조사에 따르면 소비자의 94%는 상담원보다 AI 에이전트를 선호한다고 응답했으며, 2025년 상반기 AI 에이전트를 통한 고객 상담 건수는 평균적으로 증가한 것으로 나타났다.

에이전틱 AI 확산과 함께 CIO의 역할 변화도 관찰됐다. CIO가 가장 자주 협업하는 임원으로 CEO가 꼽혔으며, 경영 의사결정 과정에서 CIO의 참여 범위가 확대되고 있는 것으로 조사됐다. 이에 따라 CIO의 역할은 기술 운영 중심에서 비즈니스 전략과 연계된 방향으로 이동하는 양상을 보였다.

cio trend 2026 from salesforce

Salesforce

기술적 우선순위 역시 변화하고 있다. 데이터 정리, 거버넌스, 보안과 같은 기존 과제에 더해 AI 기반 워크플로 구축, 핵심 플랫폼 통합, 조직 차원의 AI 활용 확대가 주요 과제로 언급됐다. CIO의 93%는 AI 에이전트 도입 효과가 기존 업무 흐름과의 연계 수준에 달려 있다고 응답했다.

AI 활용 과정에서 가장 큰 과제로는 데이터 신뢰 문제가 지적됐다. 응답자들은 데이터 보안과 개인정보 보호를 주요 우려 요소로 꼽았으며, 신뢰할 수 있는 데이터 확보의 어려움도 함께 언급했다. 에이전틱 AI 도입을 위해 최고데이터책임자(CDO)와 긴밀히 협업하고 있다고 답한 비율은 35%였고, IT 예산 중 데이터 보안에 배정된 비중은 14%로 나타났다. 데이터 거버넌스가 충분히 구축돼 있다고 응답한 비율은 23%에 그쳤다.

한편 AI 활용이 늘어나면서 부서 간 협업 필요성도 커지고 있는 것으로 나타났다. 응답자의 81%는 AI 도입 이후 HR, 재무, 영업 등 타 부서와의 협업 중요성이 높아졌다고 답했으나, 실제 협업 수준이 충분하다고 평가한 비율은 절반에 못 미쳤다.

세일즈포스의 CIO 다니엘 슈미트는 “조직 내에서 에이전틱 AI가 단계적으로 적용되고 있다”라며 “업무 흐름과의 연계와 데이터 신뢰 확보가 핵심 과제로 인식되고 있다”라고 말했다.

한편 세일즈포스는 기업의 AI 활용과 데이터 통합을 지원하기 위해 에이전트포스 360(Agentforce 360)과 데이터 360 등을 제공하고 있다.
jihyun.lee@foundryco.com

칼럼 | 첫 엔터프라이즈 AI 앱을 개발하기 전에 생각해야 할 것

AI 분야에서 잡음을 가려내기가 점점 더 어려워지고 있다. 매일 새로운 벤치마크가 등장하고, 새 ‘최첨단’ 모델이 발표되며, 어제의 아키텍처가 이미 구식이 됐다는 주장도 끊임없이 나온다. 특히 대기업에서 첫 AI 애플리케이션을 구축해야 하는 개발자라면, 쏟아지는 발표의 양 자체가 판단을 마비시킬 수 있다.

이때 순위는 큰 도움이 되지 않는다. 변화 속도가 너무 빠르기 때문이다. 불과 지난주만 해도 미스트랄(Mistral)의 새로운 모델이 공개됐고, 구글은 대규모 업데이트를 발표했으며, GPT-4o를 코딩 벤치마크에서 앞선다고 주장하는 오픈웨이트 모델도 등장했다. 이런 상황에서 무엇을 해야 할까? 오늘의 모델을 기준으로 개발을 시작했다가 배포하기도 전에 구식이 되는 것은 아닐까? 더 근본적으로는, 계획하고 추론하며 복잡한 워크플로우를 실행하는 완전 자율형 에이전트 시스템을 아직 만들고 있지 않다면 이미 크게 뒤처진 것은 아닐까 하는 걱정도 생길 수 있다.

그런 생각은 멈춰도 된다. 실제로 뒤처진 것이 아니다.

엔터프라이즈 AI의 현실은 매주 발표되는 챗봇 성능 경쟁의 결과와는 큰 관련이 없다. 핵심은 화려하지도 않고 주목받지도 않는 데이터 엔지니어링, 거버넌스, 통합 작업에 있다. 이제 AI를 만능 해결책처럼 바라보던 시기를 지나 산업화 단계로 들어서고 있다. 과제는 가장 똑똑한 모델을 고르는 것이 아니라, 실제 세계의 온갖 비합리성과 복잡성을 견뎌낼 수 있는 시스템을 구축하는 것이다.

개발자가 첫 번째 AI 애플리케이션을 만들 때 참고할 만한 몇 가지 접근법을 소개한다.

빠지기 쉬운 함정

AI 개발과 관련해서는 이른바 ‘순위표의 환상’에 휘말리기 쉽다. 수학 벤치마크에서 1% 더 높은 점수를 받은 모델을 보고, 그것이 유일한 선택지라고 단정하는 식이다. 프로그래머이자 작가인 사이먼 윌리슨은 이를 ‘느낌 기반 평가(vibes-based evaluation)’라고 표현했다. 가벼운 대화에서 어떤 챗봇이 더 ‘똑똑해 보이는지’를 판단하는 데는 어느 정도 참고가 될 수 있지만, 실제 운영 환경의 워크로드를 평가하는 기준으로는 적절하지 않다. 이제는 1990년대 소프트웨어 경쟁처럼 하나의 플랫폼이 모든 것을 차지한다는 관점에서 AI를 바라보는 태도에서 벗어날 필요가 있다.

모델 가중치는 점점 차별성이 사라지는 방향으로 가고 있다. 모두에게 필요하지만 누구도 직접 관리하고 싶어 하지 않는, 일종의 기반 인프라에 가까워지고 있다는 의미다. 앤트로픽이나 오픈AI를 사용하든, 라마(Llama)와 같은 오픈소스 모델을 선택하든, 기업 업무의 약 90%를 처리하기에 충분한 수준의 지능을 확보할 수 있다. 첫 번째 AI를 개발하는 데 체감되는 차이는 크지 않다. 결국 ‘가장 좋은’ 모델이란 성능 순위표에서 앞선 모델이 아니라, 보안과 안정성을 갖추고 실제로 사용할 수 있는 모델인 경우가 많다.

AI 분야의 여러 사이클을 누구보다 많이 경험한 스탠퍼드대 교수 앤드루 응은 최근 비교적 단순하지만 핵심을 찌르는 조언을 내놓았다. 그는 “가치 있는 무언가를 만드는 데 훨씬 더 집중해야 한다”라고 말했다. 당연하게 들리지만, 실제 현장에서는 자주 간과되는 조언이다. 응은 진정한 가치가 모델 계층이 아니라 애플리케이션 계층에 있다고 설명했다. 송장을 자동으로 대조하거나 법률 문서를 요약하는 등 실제 비즈니스 문제를 해결하는 도구를 만든다면, 그 파운데이션 모델이 순위표에서 1위인지 3위인지는 결국 큰 의미를 갖지 않는다.

AI의 작동 원리는 전통적인 소프트웨어와 근본적으로 다르다. 오픈소스 세계에서는 코드 자체가 핵심 자산일 수 있지만, AI 환경에서 모델은 일시적인 상품에 가깝다. 진정한 자산은 데이터이며, 그 데이터를 어떻게 모델에 공급하고 활용하느냐에 있다.

데이터베이스처럼 사고하라

모델을 선택한 후에는 곧바로 ‘에이전트’를 만들어야 한다는 유혹에 빠지기 쉽다. 웹을 탐색하고, 데이터베이스를 조회하며, 스스로 판단까지 내리는 AI 에이전트를 설계했다는 공로를 인정받고 싶기 때문이다. 하지만 신중할 필요가 있다. 아직 에이전트를 만들 준비가 되지 않았을 가능성이 크다. 이는 AI가 충분히 똑똑하지 않아서도 아니고, AI 경험이 부족해서도 아니다.

문제의 핵심은 데이터가 충분히 정리돼 있지 않다는 데 있다.

최근 기사에서 언급했듯, AI의 메모리는 본질적으로 데이터베이스 문제다. 에이전트에서 메모리를 제거하면 비용이 매우 높은 난수 생성기에 불과해진다. 에이전트는 사람의 데이터를 기계의 속도로 처리한다. 이 데이터가 구조화돼 있지 않고, 거버넌스가 적용돼 있지 않다면 에이전트는 대규모 환경에서 확신에 찬 오답을 만들어내게 된다.

대부분의 기업은 여전히 데이터가 어디에 존재하는지 파악하는 단계에 머물러 있다. 대규모 언어 모델에 데이터를 어떻게 노출할지까지 고민하는 경우는 더 드물다. AI의 메모리는 흔히 컨텍스트 윈도우라는 개념으로 단순화해 설명되지만, 실제로는 구조화된 저장과 관리가 필요한 데이터베이스에 더 가깝다. 여기에는 스키마 설계, 접근 제어, AI가 허위 사실을 지어내거나 민감한 정보를 잘못된 사용자에게 노출하지 않도록 막는 방화벽 등 트랜잭션 로그에 적용하는 것과 동일한 수준의 엄격함이 필요하다.

첫 번째 AI 시스템을 설계하고 있다면, 출발점은 메모리 계층이어야 한다. AI가 무엇을 알고 있어도 되는지, 그 지식은 어디에 저장되며, 어떤 방식으로 업데이트되는지를 먼저 결정해야 한다. 그 다음에야 프롬프트를 고민할 차례가 뒤따른다. 이때 가장 먼저 고려해야 할 요소는 따로 있다. 바로 추론이다.

추론부터 시작하라

과거에는 모델 학습에 들어가는 막대한 비용에 관심이 쏠렸다. 그러나 엔터프라이즈 환경에서는 이 부분이 크게 중요하지 않다. 현재 AI의 핵심은 추론, 즉 이미 학습된 지식을 실제 애플리케이션에 적용하는 단계에 있다. 다시 말해, 거버넌스가 적용된 기업 데이터를 모델과 결합할 때 AI는 비로소 실질적인 가치를 만들어낸다. 기업에서 AI 활용 역량을 키우는 가장 좋은 출발점은 거창한 에이전트 시스템이 아니라 간단한 검색 증강 생성(RAG) 파이프라인이다.

실무에서 이는 무엇을 의미할까? 인사 정책, 기술 문서, 고객 지원 로그처럼 지루하고 정리가 덜 된 문서 묶음을 하나 정한 뒤, 그 데이터만을 기반으로 사용자가 질문하면 답을 얻을 수 있는 시스템을 만들어보는 것이다. 이 과정은 기업 경쟁력을 높이는 중요한 문제들을 해결하는 데 유용하다. 예를 들면 다음과 같다.

  • 데이터 수집 및 정리: PDF 문서를 어떤 기준으로 나누고 정리해야 모델이 내용을 제대로 이해할 수 있을지 고민한다.
  • 거버넌스: 사용자가 권한이 없는 질문을 했을 때, 모델이 답변하지 않도록 어떻게 통제할 것인지 설계한다.
  • 지연 시간: 응답이 느리다면 아무리 정확해도 실제 현장에서 활용되기 어렵다.

이런 작업은 지루하게 느껴질 수 있다. 하지만 AI 연구자 안드레 카파시는 대규모 언어 모델을 새로운 운영체제의 커널에 비유한 바 있다. 사용자는 커널과 직접 상호작용하지 않으며, 그 위에서 동작하는 애플리케이션을 사용한다. 결국 개발자의 역할은 사용자 인터페이스, 업무 로직, 데이터 연결 구조를 포함한 ‘사용자 영역’을 구축하는 데 있다.

표준화된 개발 경로를 구축하라

플랫폼 엔지니어링 역할을 맡고 있다면, 모든 것을 통제하고 싶다는 생각이 먼저 들 수 있다. 하나의 모델과 하나의 API를 정해두고, 모든 개발자가 이를 따르도록 강제하고 싶어지는 것이다. 그러나 이런 접근은 바람직하지 않다. 플랫폼팀이 이른바 ‘안 된다고만 말하는 조직’이 되어서는 안 된다. 통제 장치를 지나치게 강화하면, 개발자들은 개인 신용카드를 쓰거나 관리되지 않는 외부 API를 활용하는 방식으로 우회하게 된다.

대신 ‘표준화된 경로’를 구축해야 한다. AI 애플리케이션을 올바르게 구축하는 방식이 곧 가장 쉬운 선택이 되도록, 조합 가능한 서비스와 가드레일을 제공하는 전략이다. 예를 들어 vLLM 등 여러 제공자가 지원하는 ‘오픈AI 호환 API’와 같은 인터페이스를 표준으로 삼으면, 이후 성능 순위가 바뀌더라도 백엔드 모델을 유연하게 교체할 수 있다. 당장은 빠르고, 규정을 준수하며, 안정적으로 사용할 수 있는 모델 하나를 선택한 뒤 다음 단계로 나아가면 된다.

목표는 개발자의 속도를 억누르는 것이 아니라 올바른 방향으로 이끄는 것이다. 데이터 거버넌스가 기본적으로 적용된 안전한 실험 환경을 제공해, 큰 위험 없이 다양한 시도를 할 수 있도록 해야 한다.

또한 첫 애플리케이션을 만들 때는 반드시 사람이 개입하는 구조를 염두에 둬야 한다. 전체 과정을 한 번에 자동화하려고 하기보다는, 보고서 초안이나 SQL 쿼리의 1차 결과를 AI가 생성하고, 이를 사람이 검토한 뒤 실행하도록 설계해야 한다. 이는 잘못된 답변이 그대로 사용될 위험을 줄이고, 사람의 판단을 보조하는 도구로 AI를 활용하도록 만든다.

그렇다면 성능 순위를 참조하지 않고도 어떻게 모델이 충분히 괜찮은지 판단할 수 있을까? 추측할 필요는 없다. 직접 테스트하면 된다.

오픈AI와 앤트로픽은 모두 ‘평가 기반 개발’을 강조하지만, 처음부터 복잡한 체계를 도입할 필요는 없다. 모델이 수행하길 원하는 실제 사례 50~100개, 즉 정답이 명확한 질문과 답변 세트만 준비하면 된다. 새로운 모델이 등장해 성능 향상을 내세울 때마다, 이 사례들을 실행해 보면 된다. 현재 사용 중인 모델보다 더 빠르거나 더 저렴하게 문제를 해결한다면 교체하면 되고, 그렇지 않다면 굳이 신경 쓸 필요 없다. 결국 중요한 기준은 외부 리더보드가 아니라, 각 조직이 직접 만든 자체 기준이다.

지루함을 선택하라

요약하자면, 데이터에 집중해야 한다. 거버넌스에 집중해야 한다. 수많은 문서나 반복적인 업무에 파묻혀 있는 회사 내 특정 사용자를 위해, 지루해 보이지만 실제로 필요한 문제 하나를 해결하는 데 집중해야 한다. 성능 순위표는 굳이 신경 쓰지 않아도 된다. 이는 연구자에게 의미가 있는 지표일 뿐이다.

AI 시대의 승자는 거버넌스가 적용된 데이터 위에서 지능을 저렴하고, 쉽게, 안전하게 활용할 수 있도록 만드는 곳이 될 것이다. SNS에서 화제가 되는 결과를 만들지는 못할지 모르지만, 엔터프라이즈 환경에서 실제로 살아남는 애플리케이션을 만드는 데는 분명 도움이 된다.
dl-ciokorea@foundryco.com

時系列予測を「当てる」より「使える」形にする――トレンド・季節性・外部要因の扱い方

時系列データのクセを見抜く――トレンド、季節性、構造変化

時系列予測の出発点は、「データは独立ではない」という事実です。今日の売上は昨日の売上と無関係ではなく、今週の利用数は先週の利用数とつながっています。これを無視して、ランダムにデータをシャッフルして学習・評価してしまうと、未来の情報が混ざり込み、見かけの精度が過剰に良くなることがあります。時系列で最初に守るべきルールは、過去で学んで未来で評価する、という当たり前を絶対に崩さないことです。

次に重要なのが、時系列には「形」があるということです。よく知られているのはトレンドと季節性です。トレンドは長期的な増減で、製品の成長や市場拡大のような要因が反映されます。季節性は周期的な揺れで、曜日、月、四半期、年次、さらには時間帯の周期が関わります。たとえばB2Bのアクティブユーザーは平日に偏り、週末に落ちることが多いです。ECはセールや給料日、年末年始の影響を強く受けます。アプリの利用は通勤時間帯にピークが来たりします。こうした周期は、モデルが勝手に学んでくれると思いがちですが、周期の長さや形は指標によって違うので、最初に可視化して“どう揺れているか”を掴むことが精度より先に重要です。

時系列で厄介なのは、トレンドや季節性だけで説明できない“構造変化”です。たとえば料金改定、UI刷新、大型キャンペーン、アルゴリズム変更、競合の参入、法規制、災害や社会的イベントなどがあると、指標の水準が段差のように変わることがあります。構造変化があると、過去の関係性がそのまま未来に続くという前提が崩れ、どんなモデルでも外しやすくなります。現場で「急に当たらなくなった」というとき、モデルのせいにする前に、指標定義の変更、計測の欠損、データの遅延、運用ルールの変更など、構造変化の候補を洗い出すのが近道です。

さらに、欠損や外れ値の扱いも時系列では重要です。欠損は「データが存在しない」のではなく「取れていない」ことが多く、計測障害を含んでいる場合があります。外れ値も、単なるノイズではなく、キャンペーンや障害など原因のあるイベントかもしれません。ここで安易に平均で埋めたり、機械的に除外したりすると、予測の目的とズレることがあります。たとえば障害検知やキャパシティ計画が目的なら、外れ値は学ぶべき重要な情報です。一方で通常時の需要予測が目的なら、異常値は別扱いして通常パターンを学ばせた方が安定します。つまり前処理は技術というより、目的と切り離せない設計です。

時系列予測で最初にやるべきことは、モデルを回すことではなく、データの形を理解して「何を当てたいのか」「どんな揺れを当てたいのか」「当たらないとき何が起きたら困るのか」を言葉にすることです。ここが曖昧だと、精度が良いのに役に立たない予測が生まれます。

手法の地図を作る――ベースラインから機械学習、深層学習まで

時系列予測の手法は多岐にわたりますが、実務での選び方は「複雑さの競争」にしない方がうまくいきます。まずは必ずベースラインを作ります。たとえば「直近値をそのまま未来に置く」「先週の同じ曜日の値を使う」「移動平均で滑らかにする」といった単純な予測です。驚くほど多くの指標で、これらは“そこそこ当たる”うえに、原因が説明しやすいです。ベースラインに勝てない高度なモデルは、運用コストをかける価値が薄いと判断できます。

次に、時系列専用の統計モデルがあります。代表例としてARIMA系や指数平滑があります。これらは過去の値の自己相関を捉えたり、トレンドや季節性を比較的素直に組み込めたりします。特徴は、短い系列でも動きやすく、パラメータが比較的解釈しやすいことです。ただし、多変量の外部要因を入れるのが難しい場合があり、外部要因が支配的な領域では限界があります。

トレンドと季節性を足し算で表現する加法モデルの考え方も有用です。曜日効果、年次効果、祝日などを成分として扱うことで、説明可能性を保ったまま予測できます。現場で「なぜその予測になったのか」を説明する必要が強いとき、こうした構造化されたモデルは強い味方になります。一方で、構造変化や突発イベントには弱いことが多く、イベント情報を別途入れる工夫が必要になります。

外部要因を積極的に使いたいときは、時系列を特徴量化して機械学習で回帰問題として解くアプローチが現実的です。たとえばラグ特徴量として「1日前、7日前、28日前の値」を入れたり、移動平均との差分、累積、休日フラグ、広告費、気温、価格、在庫などを特徴量にします。勾配ブースティングなどは非線形な関係を捉えやすく、外部要因が効く領域では強いことが多いです。ただし、特徴量設計を誤ると未来情報が漏れます。例えば「当日の売上」から作った特徴量を予測に使ってしまうなど、時間の矢印を逆流させるミスが起きやすいです。実務では、特徴量ごとに「いつ確定する情報か」を棚卸しし、予測時点で利用可能なものだけを使うルールが必要です。

深層学習の系列モデルは、長い依存や複雑なパターンを捉えられる可能性がありますが、データ量、安定性、説明可能性、運用コストの面でハードルが上がります。大量の系列があり、同じ構造が多くの対象に共有されるような問題では有効なことがあります。一方、単一指標を少量データで当てるだけなら、深層学習が必ずしも最適とは限りません。実務で大切なのは、最先端に飛びつくことではなく、目的・データ量・説明要件・運用体制の制約の中で、最も堅牢な選択をすることです。

評価指標も選び方が重要です。RMSEは大きな誤差を強く罰し、MAEは外れ値の影響を受けにくいです。売上のように大きなブレがあり、外れ値が重要な意味を持つ場合はRMSEが合うこともありますし、日次アクティブのように一定の誤差を継続的に減らしたいならMAEが扱いやすいこともあります。さらに、意思決定に直結するなら、誤差を金銭的損失に換算する指標に寄せるのも有効です。過剰在庫の損失と欠品の損失が非対称なら、左右対称な誤差指標だけでは不十分になります。

運用で勝つ――バックテスト、ドリフト検知、説明可能性

時系列予測を使える形にするためには、学習と評価のやり方を“時間に忠実”にする必要があります。具体的には、ローリング検証やウォークフォワード検証と呼ばれる方法で、学習期間を少しずつ進めながら未来を複数回予測し、実運用に近い形で性能を見ます。これにより「特定期間だけ当たっていただけ」という偶然を減らせます。さらに、予測の地平(1日先、7日先、28日先など)ごとに精度が大きく変わるので、どの地平が意思決定に重要かを先に決めて評価します。

次に、運用で必ず起きるのが“当たらなくなる”問題です。データの分布が変わるドリフトは、プロダクトの成長や市場変化で自然に起きます。ここで重要なのは、当たらなくなったときに原因を切り分けられる設計です。予測が外れたという事実だけでは、モデルが悪いのか、データが壊れたのか、外部ショックがあったのかがわかりません。実務では、データの到着遅延や欠損を検知するモニタリング、主要特徴量の分布変化を追うモニタリング、予測誤差の急増を追うモニタリングを分けて持つと、復旧が速くなります。

説明可能性も、使われる予測には欠かせません。現場が知りたいのは「明日売上がいくらか」だけではなく、「なぜそう見積もっているのか」「どの要因が効いているのか」「どれくらいブレるのか」です。そこで予測値とセットで、予測区間(不確実性の範囲)を出す価値があります。さらに、外部要因を使うモデルなら、寄与の方向性を示すことで、意思決定に使いやすくなります。例えば広告費を増やした場合のシナリオ、価格を変えた場合のシナリオなど、予測を“もしも”の計画に変換できると、単なる数当てから一段上がります。

運用を成立させる最後のコツは、予測の更新頻度と責任範囲を明確にすることです。毎日更新すべきなのか、週次で十分なのか。更新のたびにモデルを再学習するのか、一定期間固定するのか。予測が外れたときに誰が原因を見に行くのか。これらが曖昧だと、予測は置物になります。時系列予測は、モデルそのものより、運用設計が価値を決める領域です。堅牢なベースライン、時間に忠実な検証、ドリフトを前提にした監視、説明可能性、更新ルール。この五つが揃うと、予測は現場の意思決定に自然に組み込まれていきます。

A/Bテストの落とし穴を全部つぶす――実験設計から意思決定までをつなぐ統計の基本

A/Bテストの目的は「差を測る」ではなく「意思決定する」

A/Bテストは「AとBのどちらが良いか」を決めるための枠組みです。しかし、現場でありがちな失敗は、テストの目的が「差が出るかどうか」にすり替わることです。差が出たかではなく、差が出たときにどう動くのか、差が出なかったときにどう扱うのかまで含めて、意思決定として設計する必要があります。

最初に決めるべきなのは、仮説と主要指標です。たとえば「新しいオンボーディングで初回アクションが増える」という仮説なら、主要指標は初回アクション率かもしれません。一方で、初回アクションが増えても解約が増えるなら意味がありません。そこでガードレール指標として、翌週の継続率や問い合わせ率を置きます。主要指標だけを見て勝ちにすると、プロダクト全体としては悪化する、という事故を防げます。

次に重要なのが、どれくらいの差なら勝ちとするかです。ここで登場するのが最小検出効果という考え方です。実務では「統計的に有意か」より「ビジネスとして意味があるか」の方が重要なので、たとえばCVRが0.1%上がっても売上インパクトが小さいなら、開発コストに見合わないかもしれません。逆に、わずかな改善でも対象が巨大であれば十分に価値があります。最小検出効果は、必要サンプル数や期間の見積もりにも直結するため、実験を始める前に決めておく価値があります。

ここで気を付けたいのは、指標がひとつで済むとは限らない点です。平均だけ見ていると、特定の層だけが大きく反応して全体平均を押し上げているケースを見逃します。たとえば高額課金者には悪影響だが無課金ユーザーに良い影響があると、平均ではプラスに見えることがあります。だからといって最初から大量のセグメントを見ると、多重比較の問題で偶然の当たりが増えます。現実的には、事前に重要セグメントを少数に絞り、探索と確認を分けるのが安全です。

サンプルサイズ、ランダム化、汚染をどう扱うか

A/Bテストの品質を決める大きな要素は、サンプルサイズとランダム化の運用です。サンプルが少ないと、効果があっても検出できませんし、偶然の揺れで勝敗がひっくり返ります。ここで必要サンプル数を決める際に、ベースライン(現状の指標水準)、最小検出効果、許容する誤判定の確率を使います。細かい式を覚えなくても、「改善幅を小さく見積もるほど必要サンプルが増える」「ばらつきが大きい指標ほどサンプルが増える」という直感が重要です。

次に期間の決め方です。曜日効果や月初月末の偏りがある指標では、短期間で切ると偏って判断してしまいます。例えばB2Bのリード獲得は平日に偏りやすいですし、ECでは給料日やセール周期が効きます。理想は、少なくとも一つの周期をまたぐように期間を設計し、季節性が強いならホールドアウトを使った長期検証も視野に入れます。

そして、ランダム化が実務で最も壊れやすいポイントが汚染です。汚染とは、対照群と施策群がきれいに分かれず、互いの影響が混ざることです。典型例は、同じユーザーがスマホとPCでアクセスし、片方ではA、もう片方ではBを見てしまうケースです。あるいはSNSで新機能が話題になり、対照群も行動が変わってしまうケースもあります。さらにB2B領域では、同じ企業内の複数ユーザーが互いに影響し合うことが多く、ユーザー単位の割付では不十分になることがあります。

汚染への対策は、割付単位を適切に選ぶことに尽きます。個人を独立に扱えるならユーザー単位で良いですが、企業やチームなどのまとまりで影響が伝播するなら、クラスター単位で割り付ける発想が必要です。ただしクラスター化するとサンプル数の実効が減り、必要期間が伸びることがあります。だからこそ、実験を始める前に「どこで干渉が起きるか」を業務理解として洗い出しておくことが重要です。

もう一つの落とし穴は途中覗き見です。毎日結果を見て「今日はBが勝ってるから終わろう」とやると、偶然の揺れで勝っている瞬間を拾ってしまい、誤判定が増えます。覗き見自体が悪いのではなく、覗くなら覗くためのルールが必要です。例えば、決めた期間が終わるまでは判定しない、あるいは逐次検定の枠組みを採用して“覗く回数”を統計的に織り込む、といった運用です。現場では、まず「終了条件を事前に決める」だけでも事故が大きく減ります。

結果の読み方と、実装後に後悔しない判断基準

テストの結果を受け取ったとき、多くの人が最初に見るのはp値かもしれません。しかしp値は「差がないと仮定したときに、今の差以上が偶然で出る確率」を表す指標であって、「Bが良い確率」ではありません。しかも、サンプルが巨大なら小さな差でも有意になりますし、サンプルが小さければ大きな差でも有意にならないことがあります。つまりp値だけで判断すると、「意味のない差を採用する」か「有望な改善を捨てる」のどちらかに寄りがちです。

そこで、実務では効果量と不確実性をセットで見るのが有効です。効果量は、例えばCVRが何ポイント上がったか、売上が何%増えたかといった差の大きさです。不確実性は、その差がどれくらいブレる可能性があるかで、信頼区間として表現されることが多いです。信頼区間が「ビジネス上意味がある差」をまたいでいるなら、まだ判断が早いかもしれませんし、逆に区間ごと意味のある領域に入っているなら、p値に過剰にこだわらず意思決定できます。

また、よくある誤読は「有意でなかった=効果がない」と結論づけることです。有意でないのは、単に情報が足りない可能性があります。効果量がプラスで、区間が広いなら、サンプル不足の疑いが強いです。ここで大切なのは、最初に決めた最小検出効果と照らし合わせて、「このテストはその差を検出できる設計だったのか」を振り返ることです。

さらに、セグメント別の結果を見るときは慎重さが必要です。テスト後に思いつくままに属性で切っていくと、どこかで偶然“勝ったセグメント”が必ず出てきます。これを本物と誤認すると、次の施策が迷走します。安全なやり方は、事前に重要セグメントを限定して仮説として持つか、テスト後の発見は探索結果として扱って次のテストで確認する、という二段構えです。

最後に、A/Bテストは勝って終わりではありません。リリース後に効果が薄れることもあります。新規性で一時的に行動が変わる、運用が変わる、ユーザー層が変わる、競合や市場が動くなど、理由はいくらでもあります。だからこそ、重要な変更ではホールドアウトを残して長期の差を監視したり、主要指標とガードレール指標を継続して追い、リグレッションを早期に検知できる状態を作ることが実務的には強いです。

A/Bテストは統計の問題に見えて、実はプロダクトの設計・運用・意思決定の総合格闘技です。仮説を明確にし、指標を選び、割付と期間を設計し、結果を不確実性込みで読む。この一連を丁寧に回すほど、テストは“勝敗を決める儀式”ではなく、学習を積み重ねる強力な仕組みになります。

今頃聞けない因果推論入門:相関との違いは?

相関と因果の違いを「反実仮想」で腹落ちさせる

まず、因果推論が扱うのは「AをやったからBが起きたのか」という問いです。ここで重要なのは、“同じ人(同じ対象)”に対して「Aをやった世界」と「Aをやらなかった世界」を比べたい、という発想になります。たとえば、クーポンを配ったユーザーの購入額が増えたとしても、それだけでは因果とは言えません。なぜなら、そもそも購買意欲が高いユーザーを優先して配っていたら、「意欲が高いから買った」だけかもしれないからです。

この「同じ人に二つの世界を用意したい」という考え方を、因果推論では反実仮想と呼びます。反実仮想とは、「もしクーポンを配っていなかったら、その人はどうなっていたか」という仮の世界です。現実には一人のユーザーを同時に二つの世界に置けないので、反実仮想は観測できません。観測できないものを推定したい、というのが因果推論の難しさであり、面白さでもあります。

ここで押さえるべきポイントは二つあります。ひとつは、因果効果は“比較”で定義されるということです。施策を実施した群の平均値だけ見ても、施策が効いたのかはわかりません。もうひとつは、比較相手が正しくないと、結果が簡単にねじれるということです。購買意欲、既存の利用頻度、地域、デバイス、広告接触状況など、施策にも結果にも影響する要因があると、群間の差は「施策の効果」と「元々の違い」が混ざってしまいます。この混ざりものが交絡で、因果推論は交絡をどう扱うかの体系でもあります。

現場でよく起きる「相関の罠」をもう少し具体的に考えます。たとえば新しいUIを導入したあとで離脱率が下がったとします。しかし、そのタイミングで広告流入が減り、既存ユーザー比率が増えていたらどうでしょう。離脱率の低下はUIの改善ではなく、流入の質が変わっただけかもしれません。あるいはキャンペーン開始と同時に季節要因で需要が伸びる時期に入っていたら、自然増を施策効果と取り違えるかもしれません。これらは「施策の前後で比べる」という素朴な比較が、反実仮想をうまく代替していない例です。

因果推論で最終的に推定したい量は、平均的にどれだけ効いたかという平均処置効果に限りません。実務では「誰に効いたか」が重要になります。新規ユーザーには効くが既存には効かない、低頻度層には効くが高頻度層には効かない、という形で効果が異なることは珍しくありません。個別の効果を直接当てにいくのは難しいとしても、少なくともセグメント別に効果が違う可能性を視野に入れて設計するだけで、因果推論は意思決定の精度を上げてくれます。

観察データで因果を推定する代表的アプローチ

理想はランダム化比較実験、つまりA/Bテストです。ランダムに割り付けることで、交絡が平均的に打ち消され、「施策をやった群」と「やらなかった群」が反実仮想の代理として成立しやすくなります。ただし現実には、倫理的・運用的・コスト的な理由でランダム化できないことが多いです。そこで観察データから因果を推定するアプローチが登場します。大事なのは、どの手法も「こういう前提が成り立つなら、反実仮想をそれなりに作れる」という条件付きの道具だという点です。前提が崩れたら、推定結果も崩れます。

最も基本的なのは共変量調整です。施策群と対照群で違いそうな特徴量を集め、回帰などで調整して差を推定します。直感的ですが、調整に入っていない未観測の要因が交絡として残ると、結論が簡単に歪みます。さらに、調整すべき変数と、調整してはいけない変数がある点にも注意が必要です。施策によって変化する中間変数を調整してしまうと、施策効果の一部を消してしまう可能性があるからです。ここは因果グラフの発想が役に立ちます。施策→(中間)→結果の矢印の途中を消すような調整は危ない、という直感を持っておくと事故が減ります。

次によく使われるのが傾向スコアです。これは「その人が施策を受ける確率」を特徴量から推定し、施策群と対照群が似た確率分布になるようにマッチングしたり重み付けしたりして比較可能性を上げます。傾向スコアの魅力は、特徴量が多くても「一つのスコア」に要約してバランスを取りにいけることです。ただし、結局は観測された特徴量でしかバランスを取れないので、未観測交絡には弱いです。また、極端に施策を受けやすい人と受けにくい人が混ざると、重みが暴れて推定が不安定になることがあり、実務ではスコア分布の重なり(オーバーラップ)を必ず確認し、無理な一般化を避ける必要があります。

時間の前後を使って推定する代表が差の差分です。介入前後で施策群と対照群の変化量を比べることで、時間に依存する共通の要因を相殺しようとします。たとえば一部地域だけで新機能を先行導入し、他地域は据え置きにしたとき、導入前後の変化を比較することで、季節性や市場全体の変動をある程度取り除けます。ただし差の差分には、「もし施策がなかったら両群は同じトレンドで動いていたはず」という平行トレンドの前提が要になります。導入前のデータでトレンドが近いかを確認したり、導入前の時点を仮の介入としてテストするなど、前提の妥当性チェックが重要です。

閾値で決まる施策に向くのが回帰不連続です。たとえばスコアが一定以上のユーザーだけに特典を付ける場合、閾値のすぐ上とすぐ下のユーザーは性質が似ていると期待できます。そこで閾値近傍だけを見て差を推定し、局所的な因果効果を得ます。強力ですが、結論は閾値近傍に限定されることが多く、全体への一般化には注意が必要です。また、スコアが人為的に操作されていないか、閾値の手前で不自然な分布になっていないかなど、健全性チェックが欠かせません。

最後に操作変数という考え方もあります。これは「施策を受けるかどうかに影響するが、結果に直接影響しない変数」を利用して因果を切り分けるアプローチです。たとえば担当者の割り当て、ルールの境界、配送距離などが“施策実施の揺らぎ”として使える場合があります。ただし、条件を満たす変数を見つけるのが難しく、満たしているかを完全に証明するのも容易ではありません。だからこそ、操作変数を使うときは、なぜそれが結果に直接影響しないと言えるのかを、データと業務知識の両方で説明することが求められます。

このように観察データの因果推論は、魔法のボタンではありません。どの手法も「反実仮想の代理を作るための工夫」であり、成立条件と限界がセットです。だからこそ、手法名を覚えるより先に、「自分はどの反実仮想を代替しようとしているのか」を言語化することが大切です。

実務で失敗しないための設計と検証の手順

因果推論で最も差がつくのは、モデル選びではなく、問いの切り方と設計です。最初にやるべきは、目的を具体化することです。「キャンペーンは効いたか」ではなく、「キャンペーンは新規の初回購入をどれだけ押し上げたか」「既存のリピート間隔をどれだけ短くしたか」「効果は配布後何日まで続くか」という形に落とします。アウトカムが変われば、必要な観測期間も、交絡の候補も変わるからです。

次に、処置の定義を曖昧にしないことが重要です。クーポン配布を処置とするのか、クーポンの閲覧を処置とするのか、利用を処置とするのかで、解釈が全く変わります。配布は運用上コントロールしやすいですが、効果が薄く見えることがあり、利用は効果が大きく見えますが自己選択が強く交絡が増えます。ここでの決定は、分析の都合ではなく「意思決定で変えられるレバーは何か」に合わせるのが筋です。

そのうえで、比較相手をどう作るかを選びます。ランダム化できるならA/Bテストが第一候補です。できない場合は、上で述べた観察データ手法の中から、業務の仕組みに合うものを選びます。たとえば地域ごとに導入タイミングが違うなら差の差分が自然ですし、スコア閾値で決めているなら回帰不連続が検討できます。ここで大事なのは、データだけ見て決めないことです。施策がどう運用されているか、どこで例外が起きるか、どのような判断で配られているかといった運用の理解が、因果推論の精度を左右します。

検証では、推定値だけでなく前提のチェックを必ず組み込みます。傾向スコアなら群間のバランスが整ったか、差の差分なら導入前のトレンドが似ていたか、回帰不連続なら閾値付近で不自然な操作がないか、といった確認が必要です。さらに、感度分析として「もし未観測交絡がこれくらいあったら結論が覆るか」を検討する姿勢も重要です。因果推論は“正解”を約束するものではなく、“正しさの根拠と弱点”を明確にすることで意思決定の質を上げる道具だからです。

最後に、結果を意思決定に接続します。点推定だけで「効いた」「効かなかった」と断じるのではなく、効果の不確実性を示しながら、ビジネス上の損益に変換して判断します。たとえば平均効果が小さく見えても、対象人数が大きければ総効果は大きいかもしれませんし、逆に効果が大きく見えても特定の偏った層でしか成立していないなら、拡大すると崩れるかもしれません。こうした読みを支えるのが、因果推論の設計・前提チェック・感度分析の一体運用です。

因果推論は、相関に飛びつかないためのブレーキであり、施策を改善し続けるためのハンドルでもあります。分析結果を一枚絵で終わらせず、「どういう前提で、どの範囲に、どれくらい効いたと言えるのか」を言葉で説明できる状態まで持っていくことが、最終的な価値になります。

채용 과정에 스며드는 AI···구직자와 기업 모두의 불신 키운다

채용 플랫폼 다이스(Dice)의 ‘2025 기술 채용의 신뢰 격차(The Trust Gap in Tech Hiring 2025)’ 보고서에 따르면, AI는 채용 담당자와 채용 관리자, 구직 중인 기술 전문가의 신뢰 문제를 야기하고 있다. 설문 조사 결과, 기술 전문가의 80%는 전적으로 사람이 주도하는 채용 프로세스를 신뢰한다고 답했으며, AI와 사람이 결합된 하이브리드 방식에 대한 신뢰도는 46%에 그쳤다. 전적으로 AI에 의존하는 채용 과정을 신뢰한다는 응답은 14%에 불과했다. 응답자의 거의 절반(49%)은 선택권이 주어진다면 AI가 주도하는 이력서 선별 과정에서 빠지겠다고 답했다.

응답자들이 꼽은 주요 우려 사항으로는 AI 선별 도구가 지원자의 실제 역량보다 특정 키워드를 우선시할 것이라는 점이 63%로 가장 많았다. 기준이 지나치게 협소해 충분히 자격을 갖춘 지원자가 탈락할 수 있다는 불안도 63%에 달했다. 또 56%는 사람이 자신의 이력서를 아예 보지 않게 될 수 있다는 점을 우려했다.

이 같은 불신은 기술 시장에서 수년간 이어진 정리해고, 경제적 불확실성, AI로 인한 일자리 대체 우려와 겹치면서 더욱 증폭되고 있다. 다이스 보고서에 따르면, 기술 업계 구직이 상대적으로 수월했던 시기와 비교해 현재 지원자들은 채용 과정에서 발생하는 사소한 문제에도 훨씬 쉽게 좌절하는 것으로 나타났다. 그럼에도 불구하고 인사이트 글로벌(Insight Global)의 ‘2025 AI 채용 보고서’에 의하면 관리자 99%가 채용 과정에서 AI를 사용하고 있으며, 98%는 AI를 통해 채용 효율성이 크게 개선됐다고 답했다.

다이스의 대표 폴 판스워스는 “AI는 자신감과 과장의 경계를 흐리는 경향이 있다. 지원자가 AI 채용 시스템의 평가 기준을 넘어서야 한다고 느끼는 순간, 실제 역량과 경험을 과장할 가능성이 증가하게 된다”라고 지적했다.

이로 인해 서류상으로는 그럴듯해 보이지만 실제로는 기업에 적합하지 않은 지원자가 늘어나게 된다고 그는 분석했다. 여기에 AI를 활용해 이력서를 다듬는 지원자가 급증하면서, 검토해야 할 지원서의 양도 함께 증가하고 있다.

판스워스는 “이로 인해 기업은 채용 과정에서 과장된 이력서를 걸러내는 데 더 많은 시간을 소요하고, 적합한 인재를 찾지 못하는 면접에 시간을 허비하게 된다. 시간이 지날수록 이런 과정은 지원자와 기업 양측 모두에서 채용 시스템에 대한 신뢰를 약화시킨다”라고 말했다.

AI가 채용에 활용되는 방식

기술 업계 채용에서 AI는 지원서 응답 분석, 후보자 순위 산정, 커뮤니케이션이나 일정 조율 단계의 자동화에 자주 활용되고 있다. 글로벌 인재 평가 기업 SHL의 최고과학책임자 사라 구티에레즈는 “AI는 채용 담당자가 대량의 지원자를 관리하고 응답 속도를 높이는 데 도움을 주며, 이는 효율성 측면에서 분명한 성과”라고 평가했다.

채용에서 AI의 가장 큰 강점은 일부 절차를 자동화함으로써 채용 담당자와 채용 관리자가 면접에 집중하고 적합한 인재를 가려내는 데 더 많은 시간을 쓸 수 있게 한다는 점이다. 이를 위해 기업은 AI를 어디에 적용하고, 어떤 영역은 사람이 주도할 것인지에 대한 명확한 전략을 마련해야 한다. 채용 과정에서 AI가 사람의 판단을 압도하지 않도록, 활용 방식에 대한 투명성을 유지하는 것도 중요하다.

구티에레즈는 “이력서 표현 방식, 학력 관련 키워드, 과거 직책 등 실제 업무 성과를 직접적으로 드러내지 않는 정보를 기준으로 결정을 내릴 때 채용 판단은 왜곡될 수 있다”라고 지적했다.

판스워스 역시 AI가 지원 절차를 간소화하고 기존에는 놓칠 수 있었던 지원자 간 패턴을 발견하는 데 도움을 주지만, 동시에 잘못된 이유로 우수한 인재를 걸러낼 가능성도 존재한다고 말했다. 그는 “AI 시스템이 키워드나 경직된 템플릿에 지나치게 의존할 경우, 잠재력이 있는 인재를 놓칠 위험이 커진다”라고 경고했다.

그는 “채용 공고 타게팅이나 초기 평가 단계 등 다양한 영역에서 AI 활용이 늘고 있으며, 이는 책임감 있게 사용될 때 분명 도움이 될 수 있다. 궁극적인 목표는 채용팀이 더 나은 신호를 바탕으로 보다 현명한 결정을 내릴 수 있도록 돕는 데 있다”라며, “AI를 문지기처럼 취급하는 것이 아니라 하나의 도구로 활용할 때 비로소 실질적인 가치를 만들어낸다”라고 조언했다.

약화되는 개성

다이스 조사에서 지원자의 78%는 눈에 띄기 위해 자격을 과장할 필요를 느낀다고 답했으며, 65%는 이력서가 검토될 가능성을 높이기 위해 AI로 내용을 수정했다고 답했다. 이는 또 다른 우려를 낳는다. 판스워스는 “경쟁력을 유지하기 위해 과장이 불가피하다고 느끼는 순간, 신뢰는 서서히 무너진다”라고 설명했다.

구티에레즈는 현재 채용 과정이 군비 경쟁과 비슷한 수준에 이르고 있다고 진단했다. 지원자는 채용 알고리즘에 맞춰 이력서를 조정하기 위해 AI를 사용하고, 기업은 이를 다시 AI로 선별하면서, 그 과정에서 발생하는 잡음이 실제 역량과 AI로 다듬어진 표현을 구분하기 어렵게 만든다는 것이다.

지원자가 AI를 활용해 이력서 구조를 다듬을수록, 이력서 내용은 점점 비슷해질 수밖에 없다. 그러면 지원서 더미 속에서 적합한 인재를 찾아내기가 더욱 어려워진다. 판스워스는 AI가 이력서를 깔끔하게 다듬는 데는 도움이 될 수 있지만, 개인의 실제 경험을 온전히 반영하지는 못한다고 지적했다. 그는 “AI 챗봇으로 이력서를 작성하면 최종 결과물에서 개인의 개성과 목소리가 사라질 수 있어 전문성을 유지하기가 쉽지 않다”라며 “이상적인 채용은 가장 기계 친화적인 문장을 쓴 사람이 아니라, 진정으로 조직에 가장 잘 맞는 사람을 찾는 과정이어야 한다”라고 말했다.

구티에레즈는 미래의 채용이 AI와 개성 중 하나를 선택하는 문제가 아니라, 행정적 부담은 AI가 맡고 사람은 관계 형성과 맥락 이해에 집중하는 균형을 찾는 방향이 돼야 한다고 언급했다. 그는 채용 담당자와 채용 관리자, 지원자를 AI가 어떻게 지원할 것인지 명확히 정의한 전략을 수립하는 것이 채용 과정 전반에서 양측의 신뢰를 구축하는 데 중요하다고 강조했다.

AI 투명성에서 출발해야

채용 과정에 AI를 도입할 때는 신뢰 구축과 함께 투명성을 최우선으로 고려해야 한다. 지원자는 AI가 어디에, 어떻게 활용되는지 이해하고, 이를 하나의 보조 도구로 인식하는 것이 중요하다. 이를 위해서는 지원자가 알고리즘에 의해 배제되는 것이 아니라, 사람이 평가하고 있다는 확신을 가질 수 있도록 하는 여러 단계의 장치가 필요하다.

판스워스는 “이 같은 개방성이 지원자의 불안을 완화할 뿐 아니라, 기술이 사람의 공정한 판단을 대체하는 것이 아니라 채용 과정을 보완하기 위해 존재한다는 점을 분명히 해준다”라고 설명했다.

다이스는 기업이 채용 과정에서 AI 활용에 대한 투명성을 높이기 위해 다음과 같은 방안을 고려할 수 있다고 조언했다.

  • 지원서를 사람이 직접 검토한다는 점을 지원자에게 명확히 알린다.
  • AI가 탈락시킨 지원자에 대해서는 사람이 2차 검토를 진행하고, AI 판단에 대한 정기적인 감사를 실시한다.
  • 채용 담당자의 책임 지표를 설정하고, 의무적인 응답 기한을 마련한다.
  • AI를 지원자 배제 수단이 아니라 잠재 인재를 식별하는 도구로 활용한다.
  • 지원자에게 업무 적합도 비율을 보여주는 매칭 점수를 도입한다.
  • AI는 행정 업무에 집중시키고, 사람은 고차원적인 판단에 집중한다.
  • 지원서 접수 여부와 인적 검토 진행 상황, 채용 완료 시점을 지원자에게 명확히 안내한다.
  • 탈락한 지원자에게는 획일적인 자동 응답을 지양하고, 구체적인 피드백을 제공한다.

지원자가 느끼는 불안, 즉 AI가 역량보다 키워드를 우선할 것이라는 우려와 협소한 기준에 맞지 않으면 탈락할 것이라는 두려움, 나아가 사람이 이력서를 아예 보지 않을 것이라는 인식은 결코 가볍게 넘길 문제가 아니다. 다이스 조사에 따르면 채용 과정에 대한 좌절감은 기술 인재의 30%가 업계를 떠날 것을 고민하게 만들었으며, 24%는 현재는 업계에 남아 있지만 점점 불만이 커지고 있다고 답했다.

판스워스는 “이 수치는 분명한 경고 신호”라며 “사람들이 허공에 대고 외치고 있다고 느끼는 순간, 더 이상 머물지 않으려 할 것이다. 기업은 채용 경험이 지원자에게 불투명하게 느껴지지 않도록 해야 한다”라고 강조했다.
dl-ciokorea@foundryco.com

마이크로소프트, 2026년 7대 AI 트렌드 발표

지난 몇 년간의 실험 단계를 지나, AI는 이제 일하고, 창작하고, 문제를 해결하는 방식을 바꾸고 협업하며 사람의 전문성을 확장하고 있다. MS는 2026년을 기점으로, AI가 단순한 도구를 넘어 사람의 역량을 확장하는 실질적인 파트너로서 가시적인 변화를 이끌 것으로 전망했다.

MS에 따르면 변화는 산업 전반에서 현실화되고 있다. AI는 의료 분야에서 의료 격차 해소에 기여하고 있으며, 소프트웨어 개발 분야에서는 작업의 맥락까지 이해한다. 양자 컴퓨팅 분야에서는 AI와 슈퍼컴퓨터, 양자를 결합한 하이브리드 접근이 기존에 해결 불가능했던 문제에 대한 돌파구를 예고하고 있다.

AI 에이전트의 고도화에 따라 보안과 인프라의 중요성도 더욱 커지고 있다. MS는 기업이 디지털 동료의 등장에 따른 새로운 위협에 대응하는 한편, 스마트하고 효율적인 AI 인프라 구축에도 속도를 내고 있다고 밝혔다. MS가 선정한 2026년 7대 AI 트렌드는 다음과 같다.

1. 사람의 역량을 확장시키는 AI

AI는 사람의 능력을 단순히 보조하는 수준을 넘어 보다 강력한 협력자로 자리 잡을 전망이다. AI는 질문에 답하고 문제를 추론하던 단계를 지나, 사람과 함께 일하며 성과를 확대하는 방향으로 진화하고 있다. 이는 개인과 소규모 팀이 기존보다 훨씬 큰 규모의 프로젝트를 신속하게 추진할 수 있는 환경을 만드는 변화다.

특히 AI 에이전트는 데이터 분석, 콘텐츠 생성, 개인화 작업 등을 담당하며 디지털 동료의 역할을 수행한다. 예를 들어, 소수 인원으로 구성된 팀도 AI의 지원을 통해 며칠 만에 글로벌 캠페인을 기획·실행할 수 있는 업무 환경이 가능해진다. 이런 변화는 사람이 전략이나 창의성이 필요한 핵심 역할에 집중할 수 있도록 돕고, 조직의 생산성 향상으로 이어질 전망이다.

MS AI 경험 총괄 최고제품책임자 아파르나 체나프라가다는 “AI의 미래는 사람을 대체하는 것이 아니라 사람의 능력을 확장하는 데 있다. AI와 경쟁하기보다는 함께 일하는 법을 익힌 조직이 더 큰 문제를 해결하고 더 빠르게 성과를 만들어낼 것”이라고 강조했다.

2. 보안이 내장된 AI 에이전트의 확산

AI 에이전트의 확산과 함께 보안이 핵심 과제로 떠오르고 있다. 2026년에는 AI 에이전트가 조직 내에서 디지털 팀원처럼 기능하며, 일상 업무와 의사결정을 돕는 데 관여할 것으로 예상된다. 이에 따라, 보안에서부터 각 에이전트의 신뢰성을 확보하는 것이 그 어느 때보다 중요해지고 있다.

각 에이전트에는 명확한 신원을 부여하고, 접근 권한을 제한하며, 에이전트가 생성한 데이터를 관리하고, 에이전트를 외부 위협으로부터 보호하는 체계적인 보안 설계가 요구된다. 보안은 더 이상 마지막에 추가하는 옵션이 아니라, 처음부터 환경 전반에서 상시적, 자율적, 내장형으로 작동해야 한다.

또한 공격자가 AI를 악용하는 방식이 정교해짐에 따라, 조직은 보안 에이전트를 통해 위협을 조기에 탐지하고 신속히 대응하는 보안 체계를 구축하고 있다.

MS 보안 부문 기업 부사장 바수 자칼은 “모든 AI 에이전트는 인간과 유사한 수준의 보안 보호를 갖춰야 하며, 그래야만 통제되지 않은 위험을 지닌 ‘더블 에이전트’로 변하는 것을 막을 수 있다. AI가 업무에서 점점 더 중요한 요소가 되는 지금, 신뢰와 보안은 필수적”이라고 덧붙였다.

3. 의료 격차 해소에 기여하는 AI

AI가 의료 격차 해소의 열쇠로 부상하고 있다. 세계보건기구(WHO)는 2030년까지 약 1,100만 명의 의료 인력이 부족해질 것으로 전망하며, 이로 인해 전 세계 45억 명이 필수 의료 서비스를 받지 못할 수 있다고 경고했다.

MS는 2025년 MS AI의 진단 오케스트레이터(MAI-DxO)가 숙련된 의사의 평균 진단 정확도(20%)를 크게 상회하는 85.5%의 정확도로 복잡한 의료 사례를 해결하는 성과를 냈으며, 코파일럿(Copilot)과 빙(Bing)이 매일 5,000만 건 이상의 건강 관련 문의를 처리하고 있다고 밝혔다.

MS AI 헬스케어 부문 부사장 도미닉 킹은 “AI는 진단을 넘어 증상 분류와 치료 계획까지 영역을 확장하고 있으며, 앞으로 연구 환경을 벗어나 수백만 명의 환자와 소비자가 실제로 사용할 수 있는 생성형 AI 서비스로 발전하게 될 것”이라고 말했다.

4. 과학 연구의 중요한 파트너로 부상하는 AI

AI는 과학 연구 과정에서도 점점 더 중요한 역할을 맡고 있다. AI는 기후 모델링, 분자동역학, 신소재 설계 등의 분야에서 혁신을 앞당기고 있으며, 2026년에는 물리·화학·생물학 연구에서 논문 요약이나 보고서 작성을 넘어, 실제 발견 과정에 적극 참여할 것으로 전망된다.

이러한 변화는 마치 개발자가 AI와 함께 코드를 작성하는 ‘페어 프로그래밍(pair programming)’이나, 일상 업무를 자동화하는 앱을 사용하는 흐름과 맞닿아 있다. MS는 과학 분야에서도 이 같은 협업 방식이 점차 확산될 것으로 내다보고 있다.

MS 리서치 사장 피터 리는 “AI가 가설을 세우고, 과학 실험을 제어하는 도구와 앱을 활용하며, 사람과 AI 연구자 모두와 협업하게 될 것”이라며, “이는 과학 연구의 속도를 가속화하고, 새로운 발견의 방식을 바꾸는 전환점이 될 것”이라고 전망했다.

5. 스마트하고 효율적으로 진화하는 AI 인프라

AI 인프라는 단순한 확장을 넘어 더 스마트하고 효율적인 방향으로 재편되고 있다.  2026년에는 분산된 컴퓨팅 자원을 보다 조밀하게 배치하고, 유연하게 운용하는 차세대 연결형 인프라, 이른바 ‘AI 슈퍼팩토리’가 등장할 전망이다.

MS 애저 최고기술책임자 마크 러시노비치는 이런 변화를 ‘AI 워크로드를 위한 항공 교통 관제 시스템’에 비유했다. 컴퓨팅 자원을 실시간으로 조정하고 분산시켜, 작업이 지연될 경우 즉시 다른 작업이 그 자원을 활용해 낭비 없이 운영되는 구조라는 설명이다.

그는 “AI는 앞으로 규모가 아닌, 얼마나 뛰어난 지능을 만들어내는가로 평가받게 될 것”이라며, “이 같은 전환은 더 낮은 비용과 높은 효율성으로 글로벌 AI 혁신을 뒷받침할 수 있는 더 스마트하고, 지속 가능하며, 유연한 인프라 구축에서부터 시작될 것”이라고 강조했다.

6. 코드의 문맥을 이해하는 AI

AI는 단순한 코드 해석을 넘어 코드 간 관계와 과거 이력까지 이해하는 수준으로 진화하고 있다. ‘리포지토리 인텔리전스(Repository Intelligence)’라 불리는 해당 기술은 코드의 변경 내역과 이유 등 코드 리포지토리의 패턴을 분석해 더 스마트한 제안과 빠른 오류 탐지, 수정 자동화를 돕는다.

MS는 2025년이 소프트웨어 개발 활동이 사상 최고치를 기록한 해였다고 밝혔다. 깃허브(GitHub)에 따르면, 매달 평균 4,320만 건의 풀 리퀘스트(Pull Request)가 병합돼 전년 대비 23% 증가했으며, 코드 변경 내역을 저장한 커밋 수도 10억 건으로 25% 늘었다. 이는 AI가 코드 작성부터 검토, 유지보수 전 과정에 중심적으로 관여하며, 소프트웨어 개발 방식이 빠르게 변화하고 있음을 보여준다.

깃허브 최고제품책임자 마리오 로드리게스는 “2026년은 리포지토리 인텔리전스가 본격적으로 도입되는 전환점이 될 것”이라며, “이 기술은 더 스마트하고 신뢰할 수 있는 AI 개발을 가능하게 하는 구조와 맥락을 제공해, 개발 현장에서 경쟁 우위를 결정짓는 핵심 요소가 될 것”이라고 말했다.

7. 양자 컴퓨팅의 실용화 가능성

양자 컴퓨팅이 기존 컴퓨팅의 한계를 넘어서는 실용화가 수십 년이 아닌 수년 앞으로 다가오고 있다. 특히 AI와 슈퍼컴퓨터, 양자를 결합한 ‘하이브리드 컴퓨팅’이 부상하면서, 각 기술의 강점을 통합한 새로운 연산 방식이 주목받고 있다.

AI는 데이터에서 패턴을 찾고, 슈퍼컴퓨터는 대규모 시뮬레이션을 처리하며, 양자는 분자와 물질 모델링 계산 정확도를 획기적으로 높이는 역할을 수행한다. 여기에 오류를 감지하고 보정할 수 있는 ‘논리 큐비트(logical qubits)’ 기술의 발전이 더해지며, 양자 시스템의 안정성도 향상되고 있다.

MS의 양자 칩 마요라나 1(Majorana 1)은 위상 큐비트(topological qubits)를 기반으로 설계돼 큐비트의 불안정성을 줄이고, 오류를 자동으로 감지·수정할 수 있는 구조를 갖췄다. 이를 통해 하나의 칩에 수백만 개 큐비트를 집적할 수 있는 확장성도 확보했다.

MS 디스커버리 & 퀀텀(Microsoft Discovery & Quantum) 부사장 제이슨 잰더는 “양자 우위는 소재, 의학 등 다양한 분야에서 혁신을 촉발할 것”이라며, “AI와 과학의 미래는 단순히 속도가 빨라지는 것이 아니라, 그 구조와 방식 자체가 근본적으로 재정의될 것”이라고 말했다.
dl-ciokorea@foundryco.com

Dall’Agile alle certificazioni ISO: le metodologie imprescindibili per i CIO italiani

Uno dei compiti fondamentali del CIO è creare valore per l’azienda con un approccio che integra tecnologia e cultura organizzativa. Per farlo, molti si affidano a metodologie codificate, come l’Agile, che aiuta ad allineare l’IT con le strategie di business tramite il DevOps – o alle certificazioni – come la ISO 207001 sulla gestione della sicurezza delle informazioni. Non si tratta, come ha sottolineato Capgemini [in inglese], di prodotti che si comprano e si applicano o di nuove regole da rispettare, ma di una combinazione di strumenti, processi e mentalità innovativa, e nessuno di questi elementi può mancare.

“L’adozione e la certificazione ISO/IEC 27001 hanno rappresentato per Axpo Italia una sfida di governance e di crescita culturale”, conferma Massimiliano Licitra, Chief Information & Operations Officer di Axpo Italia (soluzioni energetiche innovative). “L’abbiamo potuta affrontare con successo grazie a una direzione chiara e a un modello di collaborazione trasversale tra funzioni tecniche, compliance e top management”.

La certificazione ISO/IEC 27001:2022, un caso concreto

La certificazione internazionale ISO/IEC 27001:2022 è una delle più perseguite dai CIO e CISO oggi, perché prepara il terreno a un’efficace implementazione della NIS2.

Dal punto di vista della governance, l’approccio di Axpo Italia si è fondato sulla valutazione dei rischi relativi ai processi critici, sulla definizione di controlli coerenti con lo standard ISO/IEC 27001:2022 e sul monitoraggio continuo tramite KPI e metriche di maturità. Axpo Italia ha anche istituito comitati di sicurezza e rafforzato processi chiave come gestione degli accessi, classificazione delle informazioni, incident management e business continuity, in un lavoro congiunto tra IT, Operation, Servizi Generali, HR, DPO e Local Compliance Manager.

La leva culturale del progetto è stata la formazione, strutturata in moduli differenziati rivolti all’intera popolazione aziendale e ai ruoli tecnici e manageriali più coinvolti, con un focus sulla consapevolezza, le best practice operative e lo sviluppo delle competenze specialistiche.

La funzione ICT & Security di Axpo Italia, guidata da Andrea Fontanini, ha anche cercato il supporto di un consulente esterno (ICT Cyber Consulting), che ha affiancato Axpo Italia in ogni fase, dalla mappatura dei processi alla preparazione per l’audit, assicurando l’integrazione dei controlli di sicurezza lungo l’intero ciclo di vita dei processi operativi e IT.

Waterfall o Agile? Una guida passo dopo passo

Un altro caso emblematico è quello di Ernesto Centrella, Competence Leader metodologie waterfall, test e processi di sviluppo software di Credem Banca e membro comitato scientifico ISTQB (International Software Testing Qualification Board): Centrella è stato posto dalla sua azienda esattamente a capo delle metodologie operative dell’IT e coordina le evoluzioni degli approcci Agile con approcci più tradizionali, a seconda delle esigenze. 

“Oggi il mondo tecnologico è molto complesso e bisogna rispondere con velocità alle esigenze normative e di business: per questo le metodologie IT sono centrali”, indica Centrella. “Noi usiamo fondamentalmente due metodologie nel nostro IT, sia per quelli che definiamo progetti sia per l’evoluzione degli applicativi. La prima è una metodologia più di tipo waterfall, l’altra è Agile. Ma non applichiamo mai la metodologia esattamente come prescrivono i manuali – sarebbe impossibile. Le personalizziamo per le nostre esigenze come banca”. 

Nella pratica, quando in Credem parte il progetto di un’attività, il team di Centrella effettua per prima cosa un confronto tra le persone che dovranno lavorare a quell’attività per capire qual è la metodologia più opportuna da seguire, utilizzando il framework Cynefin. In questa fase vengono anche definiti tempi e costi e lo staffing del core team.

“In generale, le attività che hanno un impatto sul mainframe vengono svolte in waterfall, mentre quelle che vanno sui canali diretti verso il cliente preferisco farle in Agile”, spiega Centrella. “In questi casi, infatti, il feedback è molto rilevante e, quindi, è importante riuscire a portare il prodotto sul mercato il prima possibile”.

Nella metodologia waterfall il team IT inizia con la qualification, con cui studia il percorso e coinvolge gli stakeholder necessari. Per esempio, se l’applicazione ha dei requisiti di performance, si cerca di capire subito quali test di prestazione andranno condotti e chi li dovrà fare, e così per gli impatti su cybersicurezza, compliance, eccetera.

“Questa attività ha una durata maggiore nel tempo, ma è precisa nel determinare il budget – inteso come effort interno ed esterno – e la pianificazione”, illustra Centrella. “I tempi del processo decisionale sono più lenti, ma più dettagliati, visto che viene svolto, come dice il nome, a cascata”.

Al contrario, nella metodologia Agile non si entra in ogni dettaglio, ma si cerca di capire i macro-impatti su norme, sicurezza, performance e costi, demandando ai singoli sprint la rivisitazione di dettaglio. Il processo decisionale è più veloce e molti aspetti si decidono in fase di delivery. 

“Nell’agile non abbiamo tutti i dettagli fin dall’inizio e procediamo per sprint di circa 3 settimane in cui raccogliamo i requirement, ovvero che cosa dobbiamo fare in quelle 3 settimane per gli obiettivi del progetto”, spiega ancora Centrella. “In questo modo le fasi di analisi, test e sviluppo avvengono insieme e le persone si confrontano subito usando una dashboard condivisa in cui riportano e dettagliano le loro attività, che noi chiamiamo user stories. Ognuno ne è responsabile e alla fine dello sprint risolviamo le user stories e sappiamo come andare avanti: per esempio, con un test di prestazione o di sicurezza”.

Centrella sottolinea che, anche nel modello waterfall, viene applicata una personalizzazione in modo da rendere l’IT in qualche misura agile pur nel metodo di lavoro più tradizionale.

“Nel waterfall si prendono tutte le analisi e i requisiti e si passano agli analisti tecnico-funzionali, poi agli sviluppatori, ai test e alla produzione, in modo sequenziale. Tuttavia, noi tendiamo a trasformare il waterfall in iterativo, perché oggigiorno sarebbe assurdo dare il primo output di progetto dopo anni. Anche nei modi di procedere più tradizionali bisogna acquisire una forma di velocità”, chiarisce Centrella. 

Quindi, anche nella metodologia waterfall, l’attività viene suddivisa, il più possibile, in parti più piccole in sé complete. Così è possibile verificare in ogni fase se portare il progetto in produzione. Inoltre, sviluppo e produzione restano allineati, come esige il DevOps. 

Il DevOps, l’automazione e l’AI

Le metodologie DevOps sono basate sull’impianto Agile e su una tecnica di sviluppo veloce, dove i test si fanno sempre più in automatico e si arriva al più presto all’utente validatore. 

“Finito lo sprint c’è un pacchetto software che si può o no portare in produzione”, illustra Centrella. “Sviluppo e operazioni procedono in parallelo: appena finito lo sviluppo si effettua il test, sempre più con una componente di automazione, così se qualcosa non va procediamo prontamente alla fix; quindi, in funzione della tipologia di sprint e del macro piano iniziale, si decide se andare in produzione, ovvero verso le Operations. Se è il caso, da quel momento le parti Dev e Ops interagiscono e passano alla fase di babysitting”.

Il babysitting è l’ultimo pezzo della catena del metodo di lavoro dell’IT: nell’Agile è all’interno del progetto, mentre nel waterfall è staccato, perché ogni fase è distinta, anche se a livello operativo cambia poco ed in entrambe le metodologie durante il babysitting Dev ed Ops collaborano tra di loro.

In ogni caso, le tecniche di automazione sono fondamentali. L’IT di Credem ha automatizzato tutto il processo di deployment: le attività degli sviluppatori precedenti alla produzione usano catene automatizzate, che sono più efficaci e garantiscono controllo, e non si va in produzione se non vengono superate le fasi di test e di collaudo.

“Abbiamo automatizzato anche le catene dei test di performance – anzi, stiamo lavorando per automatizzare tutto il mondo del test, iniziando a sfruttare l’AI, ad esempio, per definire i testbook, partendo dai casi funzionali o user story”, rivela Centrella. “Oggi l’automatizzazione dei test è molto rivolta al tecnico, quindi a figure come gli sviluppatori, ma, sfruttando le potenzialità dell’AI, vorremmo spostare queste competenze verso gli analisti. Ciò consentirebbe sia di liberare risorse strategiche sia di permettere agli analisti, che conoscono meglio di tutti l’applicazione, di testarla in maniera approfondita ed automatizzata scrivendo e modificando gli script. Al momento siamo in fase di sperimentazione e dobbiamo capire che cosa ci riserva il futuro, anche perché del mondo AI siamo tutti all’inizio e la capacità di cambiamento è veramente altissima”.

La metodologia allinea IT e business

Anche Licitra riferisce che Axpo Italia, sul fronte dello sviluppo applicativo, ha investito in metodologie Agile e pratiche DevOps, con un importante sforzo di coordinamento tra team IT e business. Ed è proprio questa la ragione che rende il CIO sempre più coinvolto in certificazioni e metodologie di gestione.

“Quello del CIO non è più un ruolo prettamente tecnico, ma strategico; il CIO è un leader che contribuisce attivamente alla definizione ed esecuzione della visione aziendale”, afferma Francesco Derossi, CIO di Liquigas (società del gruppo SHV Energy che fornisce GPL e GNL a case, aziende e istituzioni). Non a caso, Liquigas ha inserito il CIO nel Leadership Team: “un riconoscimento per l’intero team”, evidenzia Derossi; “l’IT è un partner affidabile che crea valore tramite la tecnologia”.

Proprio in quanto CIO strategico anche Derossi ha introdotto un’organizzazione Agile che segue un’ottica DevOps. Seguendo questo modello operativo, il team IT di Liquigas è suddiviso in 3 gruppi: “Innovate”, che allinea le iniziative di business con l’IT, “Build”, che gestisce il ciclo di vita delle soluzioni e lo sviluppo, anche tramite i partner, e “Run”, che si occupa di supporto agli utenti con service desk e servizi infrastrutturali. In totale sono circa 20 le persone che riportano alCIO.

“Il mio lavoro consiste nella definizione della strategia digitale partendo dalle ambizioni di business e decidendo di concerto con i responsabili delle altre funzioni”, spiega Derossi. “Ho anche il compito di aiutare a mettere in roadmap le iniziative che aiutano a raggiungere gli obiettivi. Infine, all’interno del board, contribuisco a indirizzare le priorità durante il percorso di esecuzione della strategia”. 

La metodologia Agile è fondamentale perché, in corso d’opera, “potrebbe essere necessario introdurre qualche modifica o cambiare l’ordine delle priorità degli obiettivi”, prosegue Derossi, “e un compito essenziale del CIO è anche quello di garantire un’adeguata flessibilità e velocità nell’adattamento a necessità che sono mutate”. 

Le metodologie e gli standard più scelti dai CIO

Proprio questo mutamento continuo del mondo IT e delle esigenze del business spinge i CIO a introdurre delle personalizzazioni nelle best practice legate a standard e metodologie. Softec, per esempio, è un’azienda certificata ISO 9001: i flussi di lavoro sono dettati da questi standard ma Softec, e il CTO Alessandro Ghizzardi, li hanno amplificati e migliorati, con ulteriori step e controlli.

“La ISO in generale definisce quello che facciamo. Ma io ho anche personalizzato i flussi per l’onboarding del cliente, che è la nostra area chiave. Questo aiuta a far interagire al meglio marketing, tecnologia, infrastruttura e account clienti”, indica Ghizzardi.

Nella sua esperienza da CIO, Marco Poponesi (oggi in pensione), ha anche utilizzato le varie Standard Operating Procedures che interessavano l’ambito IT e che dovevano necessariamente essere seguite anche per questioni di conformità alla Quality Assurance. In aggiunta, ha suggerito “modelli comportamentali derivati dal buon senso e dalle esperienze passate”, racconta Poponesi.

Altri CIO applicano l’MBO, o Management by Objectives, un approccio gestionale che definisce obiettivi specifici e misurabili per i dipendenti, legando il loro raggiungimento a premi o riconoscimenti o, più in generale, all’aumento delle prestazioni aziendali. Per un CIO questo si traduce nell’allineare gli obiettivi del dipartimento IT con gli obiettivi aziendali più ampi, attraverso un processo di definizione collaborativa degli obiettivi, monitoraggio dei progressi e feedback regolare. 

Per altri CIO la bussola è il processo ITIL(IT Infrastructure Library),che fornisce best practices per la gestione IT [in inglese]. ITIL 4 è la versione più recente: anche in questo caso, l’aggiornamento risponde all’evoluzione del contesto IT — cloud, automazione, DevOps — includendo maggiore agilità, flessibilità e innovazione, pur continuando a supportare sistemi e reti legacy. ITIL copre l’intero ciclo di vita dei servizi IT, dalla strategia e progettazione alla transizione e all’operatività. Le aziende riconoscono a questo metodo il beneficio di fornire linee guida utili ad allineare i servizi IT con gli obiettivi di business, il nuovo mantra di ogni CIO.

Anche il Dipartimento IT di Axpo Italia ha allineato progressivamente diversi processi a ITIL. “Abbiamo applicato questo processo soprattutto nelle aree di incident, change e service management, con l’obiettivo di aumentare prevedibilità, standardizzazione e qualità delle attività operative”, racconta Licitra.

La sfida? Armonizzare pratiche eterogenee tra team e sedi. Per affrontarla occorrono “workflow condivisi, metriche comuni e incontri periodici di revisione”, indica il manager.

Ma è un lavoro che paga: la combinazione di standard, metodologie e processi rende le aziende più resilienti, veloci e orientate a una gestione moderna del rischio e dell’innovazione.

오픈텍스트, 2025 IDC 마켓스케이프 ‘범용 지식 검색 소프트웨어’ 부문 리더로 선정

오픈텍스트는 최근 AI 데이터 플랫폼 로드맵을 발표했으며, 해당 로드맵에서 지식 검색은 대규모이면서 복잡한 데이터 세트로부터 실행 가능한 인사이트를 도출하도록 지원하는 핵심 요소로 자리 잡았다. 오픈텍스트는 구조화 데이터와 비구조화 데이터를 결합하기 위해 통합된 개방형 데이터 및 AI 프레임워크와 서비스 포트폴리오를 구축했다.

현재 제공 중인 모듈 중 하나인 ‘오픈텍스트 놀리지 디스커버리(OpenText Knowledge Discovery)’는 AI 기반의 확장 가능한 플랫폼으로, 기업이 콘텐츠를 구성하고 분류, 라벨링, 보호할 수 있도록 지원한다. 이를 통해 기업은 보다 깊은 인사이트를 확보하고 다크 데이터를 가시화하며, 개인정보를 보호하고 콘텐츠 메타데이터를 강화할 수 있다. 오픈텍스트는 해당 플랫폼이 기업의 AI 준비도를 크게 향상시키고, 안전하고 규정을 준수하며 정확한 생성형 AI 전략을 수립할 수 있다고 설명했다.

IDC 마켓스케이프는 “여러 저장소 전반에서 실시간으로 확장 가능한 지식 검색이 필요하고, 풍부한 미디어를 포함한 광범위한 파일 형식을 지원해야 하는 기업에서는 오픈텍스트를 고려할 수 있다”라고 평가했다. 또한 “오픈텍스트 놀리지 디스커버리는 거버넌스와 규정 준수가 중요한 엔드투엔드 정보 관리 솔루션을 필요로 하는 고객에게 매력적인 선택지”라고 평가했다.

오픈텍스트는 비구조화된 기업 콘텐츠의 양과 복잡성이 지속적으로 증가함에 따라, 오픈텍스트 놀리지 디스커버리와 같은 지능형 플랫폼이 보안을 유지하며 대규모 AI 전환을 가능하게 하는 데 필수적인 요소가 되고 있다고 봤다. 오픈텍스트에 따르면 이 플랫폼은 메타데이터, 거버넌스 기능 및 AI 기반 인사이트를 활용해 콘텐츠 관리, 아카이빙, 디지털 자산 관리를 강화하며, 연합 검색, 생성형 AI 기반 자연어 분석, 시각화 기능, 비디오 및 오디오 콘텐츠에 대한 심층 분석을 통해 모든 콘텐츠 유형과 소스 전반에 대한 포괄적인 가시성을 제공한다.

미디어 인포 그룹(Media Info Groep)은 오픈텍스트 놀리지 디스커버리를 도입해 문서 2억 5,000만 건의 톤 및 감성 분석을 수행한 바 있다. 이 기업은 통합 처리 계층을 통해 15분마다 3만 5,000건의 검색 요청을 처리했으며, 구조화 데이터와 비구조화 데이터를 아우르는 맥락 기반 인사이트를 확보했다.

오픈텍스트의 공학 담당 수석 부사장인 마이클 사이발라는 “기업이 그 어느 때보다도 더 많은 콘텐츠를 보유하고 있으며, 해당 데이터로부터 도출되는 인사이트에 대한 고객의 기대 수준도 사상 최고치에 달했다”라며, “오픈텍스트 놀리지 디스커버리의 생산성, 이해 및 변환 기능이 콘텐츠를 전략적 자산으로 전환해, 고객이 더 높은 수준의 AI 준비도와 생산성을 달성하도록 돕고, 효과적인 생성형 AI 활용 사례를 위한 안전한 기반을 확장한다”라고 말했다.
dl-ciokorea@foundryco.com

【受賞者を発表】ビジネスの成長に貢献したCIOを表彰する「CIO 30 Awards JAPAN 2025」を発表

ビジネスを支えるIT施策で成長に貢献した企業とリーダーを選出

日本での開催が初となるCIO 30 Awards JAPANは、企業の成長に貢献しているCIOやIT部門のリーダーが主導したテクノロジーによる価値創出の成果を広く社会に発信し、その取り組みを評価・表彰することで、組織内でのプレゼンス向上や対外的な信頼獲得につなげていただくことを目的としています。

急速に進化するDX(デジタルトランスフォーメーション)や生成AIの社会実装が進む中、企業におけるCIOおよびIT部門の役割はますます重要性を増しています。CIO 30 Awards JAPANは、そのような環境下で先進的な取り組みに挑戦し、ビジネス成果を創出してきた企業とリーダーを選出いたしました。

CIO 30 Awards JAPAN 2025概要

【受賞者】

  • CIOグランプリ(最優秀賞):上田 晃穂 氏

関西電力株式会社 IT戦略室長 理事

  • ストラテジー賞:久本 英司 氏

株式会社星野リゾート 情報システムグループ グループディレクター

  • デジタルトランスフォーメーション(DX)賞:小笠原 暁史 氏

株式会社ヤオコー デジタル統括部 執行役員 CDO 兼 デジタル統括部長

  • AI賞:森 正弥 氏

株式会社博報堂DYホールディングス 執行役員 CAIO

  • タレント賞:岸 和良 氏

住友生命保険相互会社 エグゼクティブ・フェロー デジタル共創オフィサー デジタル&データ本部 事務局長

  • 審査員特別賞 チーム:太古 無限 氏

ダイハツ工業株式会社 DX推進室 デジタル変革グループ長 兼) 東京LABO・シニアデータサイエンティスト DX戦略担当・経営学修士

  • 審査員特別賞 個人:野村 泰一 氏

J.フロント リテイリング株式会社執行役 DX推進部長

CIO 30 JAPAN Leadership Award

  • アイリスオーヤマ株式会社
  • 伊藤忠商事株式会社
  • 株式会社荏原製作所
  • カナデビア株式会社
  • 株式会社KAIGI
  • 株式会社グロービス
  • グリーホールディングス株式会社
  • Compass Group Japan
  • サイボウズ株式会社
  • 株式会社ユーコット・インフォテクノ
  • 株式会社ユーザベース
  • 株式会社リコー
  • 日本化薬株式会社
  • 日本マクドナルド株式会社
  • パナソニック インダストリー株式会社
  • 弁護士ドットコム株式会社

【審査基準】

  • ビジネス価値の創出
  • 組織変革
  • 実際のビジネス成果
  • 社内外への波及効果

 【審査員】

  • 木内 里美(CIO賢人倶楽部会長)
  • 矢島 孝應(NPO法人 CIO Lounge理事長)
  • 内山 悟志(株式会社アイ・ティー・アール 会長 エグゼクティブ・アナリスト)
  • 美馬 のゆり(公立はこだて未来大学 システム情報科学部 教授)
  • 武内 信政(Foundry 編集ディレクター Japan)
  • Dr. Chris Holmes(Foundry Editorial Director, Asia)
  • Estelle Quek(Foundry Community Editor ASEAN CIO)
  • Cathy O’Sullivan(Foundry Editorial Director, A/NZ)
  • Yogesh Gupta(Foundry Editorial Director, India & META, Events)

【協賛】

  • Alibaba Cloud
  • Zoom

「CIO 30 Awards JAPAN 2025」特設サイト

証券口座を狙うサイバー攻撃——巧妙化する手口と防衛策

フィッシングとマルウェア——乗っ取りの2大ルート

証券口座を狙ったサイバー攻撃が急増している。楽天証券や野村証券など大手6社で乗っ取り被害が確認され、金融庁の調査(2025年2月1日〜4月16日)では、わずか3カ月間で1454件、「売却額:約506億円」「買付額:約448億円」に及ぶ不正取引が発生した。背景には、NISA制度の拡充による投資人口の増加と、巧妙化する攻撃手法の進化がある。

証券口座乗っ取りの主な手口は、大きく分けて「フィッシング」と「マルウェア感染」の2つに分類される。

トレンドマイクロのシニアスペシャリスト、成田直翔氏は次のように語る。

「フィッシングは、証券会社を装った偽メールやSMSを送り、ユーザーを偽サイトに誘導してIDやパスワードを入力させる手法です。最近では、サイトのデザインやURLが本物と見分けがつかないほど精巧に作られており、従来の『日本語の違和感』や『ドメインの不一致』といった見破り方は通用しなくなっています。一方、マルウェア感染は、ユーザーをだまして悪意のあるコマンドを自ら実行させるCllickFixや偽メールに添付されたファイルを通じて端末に不正プログラム(インフォスティーラー(情報窃取型マルウェア)が侵入し、ブラウザに保存された認証情報を盗み取るというものです。感染しても画面上に異常が現れないため、ユーザーが被害に気づきにくいのが特徴です」

2025年4月に公開されたセキュリティ企業マクニカとイスラエルのKELAによる共同調査によると、証券口座のID・パスワードが10万件以上、ダークウェブで流通していることが判明した。その大半はフィッシングによるものとされるが、インフォスティーラーによる漏洩も含まれている可能性が高い。

レジデンシャルプロキシとIoT機器——不可視化される攻撃者の足跡

攻撃者は単に認証情報を盗むだけではない。自らの痕跡を隠すために、家庭内のIoT機器を「踏み台」として悪用するケースが増えている。特に、セットトップボックス(STB)やインターネット接続型テレビ、監視カメラ、家庭用ルーターなどが標的となっている。

「こうした機器は、セキュリティのアップデートは行われているものの、サポートが終了した古い機器を使い続けているケースが多く見られます。中には『10年間ずっと同じルーターを使っています』という方も珍しくありません。こうしたサポート切れの機器を使い続けていると、定期的な更新がされないまま、ネットワークへの接続がずっと維持されてしまうことになります。その結果、セキュリティ上のリスクが高まる危険性があります」(成田氏)

これらの機器は、セキュリティアップデートが不十分なまま放置されていることが多く、攻撃者にとっては格好の標的だ。乗っ取られた機器は「レジデンシャルプロキシ(Residential Proxy、家庭用ネット回線を経由する偽装アクセス手段)」として利用され、日本国内からのアクセスを装うことで、証券会社の不正検知を回避する。

「攻撃者はセットトップボックスを“踏み台”として利用することで、自分の居場所や使っているサーバーのIPアドレスを隠すことができます。その結果、外から見ると『日本から通信が来ている』ように見えますが、実際には攻撃者がその機器を通して攻撃しているだけなのです」(成田氏)

このようなプロキシは、闇市場でも「日本IP保証」として販売されており、ランサムウェアのようにマーケット化が進んでいる。つまり、攻撃者は自らのインフラを持たずとも、他人のIoT機器を経由して攻撃を仕掛けることが可能になっているのだ。

相場操縦型の不正取引——乗っ取られた口座の“提灯”利用

証券口座を乗っ取った後、攻撃者が行うのは単なる資金の引き出しではない。これらの口座を使って市場に影響を与えるような「相場操縦型」の不正取引が行われている。

「攻撃者はまず流動性の低い銘柄、特に中国株などを事前に安値で仕込んでおく。そして、乗っ取った複数の口座を使ってその銘柄を一斉に大量購入することで、株価を吊り上げる。この“提灯”行為によって価格が高騰したタイミングで、攻撃者自身の口座から売却を行い、利益を得るという仕組みです。つまり、乗っ取られた口座は『相場を盛り上げるための道具』として利用されているのです。被害者の口座は、知らぬ間に相場操縦の片棒を担がされ、場合によっては損失を被ることもあります」(成田氏)

このような手口は、金融商品取引法に抵触する可能性があり、証券取引等監視委員会も注視している。だが、攻撃者が海外からアクセスしている場合、摘発は容易ではない。警察庁や金融庁は国際連携を強化し、犯罪集団の特定と被害防止に取り組んでいる。

個人ユーザーが直面するリスクと落とし穴

証券口座の乗っ取りは、単なる技術的な問題ではない。個人ユーザーの行動や意識が、被害の有無を左右する重要な要素となる。特にフィッシング詐欺に関しては、「見破ろうとする」こと自体が落とし穴になるケースがある。

かつては、メールの文面に不自然な日本語が含まれていたり、URLが本物と異なっていたりすることで、偽サイトを見分けることができた。しかし現在では、偽サイトの精度が非常に高く、見た目だけでは判別が困難になっている。証券会社のロゴや配色、文面のトーンまで本物そっくりに再現されており、ユーザーが「違和感を探す」こと自体が非現実的になっている。

そのため、最も有効な対策は「見破る」のではなく「踏まない」ことだ。つまり、メールやSMSに記載されたリンクをクリックせず、必ず公式アプリや事前に登録したブックマークからアクセスするという行動習慣を徹底することである。

多要素認証と通知設定——個人が取るべき防衛策

こうした攻撃に対抗するため、個人ユーザーが取るべき防衛策は複数ある。まず第一に、多要素認証(MFA)の導入が挙げられる。これは、ID・パスワードに加えて、指紋認証やワンタイムパスワード(OTP)など、複数の認証手段を組み合わせることで、認証情報が漏洩してもログインを防ぐ仕組みだ。

日本証券業協会は、会員58社に対してMFAの原則必須化を進めており、今後はより多くの証券会社がこの仕組みを標準化していくとみられる。ただし、現時点ではユーザーが任意で設定する形式の会社も多く、セキュリティ水準が低いままの口座も少なくない。

さらに一歩進んだ対策として、パスワードそのものを不要にする「パスキー」という新しい認証技術も普及し始めている。パスキーは、生体認証や端末固有の暗号鍵を用いることで、フィッシング攻撃に強く、パスワードの使い回しや漏洩のリスクを根本から排除できる。対応サービスでは、MFAよりもさらに高い安全性が期待できる次世代の認証手段と言える。

次に重要なのが、取引通知の設定である。証券会社の多くは、売買やログインが行われた際に、メールやアプリ通知でユーザーに知らせる機能を提供している。これを有効にしておくことで、身に覚えのない取引に即座に気づき、被害の拡大を防ぐことができる。

さらに、端末管理も欠かせない。ClickFixで用いられる不審なWebサイトやメールから取得したコマンドのコピー&ペーストを避け、セキュリティソフトを導入する。ブラウザにパスワードを保存しない設定にすることで、インフォスティーラーによる漏洩リスクを減らすことができる。

補償制度の現状と課題

証券口座の乗っ取りによって発生した損失に対して、どのような補償がなされるのか。この点は、被害者にとって極めて切実な問題である。

現状では、証券会社ごとに補償方針が異なっており、満額補償を行う企業もあれば、一定割合のみの補償にとどまる企業もある。補償の可否や金額は、被害の発生経緯やユーザー側の過失の有無など、個別の事情によって判断される。

たとえば、ユーザーがフィッシングサイトに自ら情報を入力していた場合、「重大な過失」と見なされ、補償の対象外となる可能性もある。一方で、インフォスティーラーによる情報漏洩のように、ユーザーが被害に気づきにくいケースでは、補償の判断がより複雑になる。

このような補償制度の不透明さは、被害者にとって二重の苦しみとなりうる。制度の明確化と、迅速かつ誠実な対応が求められている。

国際連携と犯罪インフラの解体

証券口座乗っ取りの背後には、国際的なサイバー犯罪集団の存在があるとされる。彼らは、フィッシングサイトの構築、マルウェアの配布、レジデンシャルプロキシの販売などを分業体制で行っており、まるで一つの“産業”のように機能している。

このような犯罪インフラを解体するには、国内の法制度だけでは限界がある。警察庁や証券取引等監視委員会は、海外の捜査機関やセキュリティ企業と連携し、情報収集と摘発に取り組んでいるが、摘発の難易度は依然として高い。

特に、IoT機器を踏み台にした“なりすまし”攻撃では、通信の発信元が日本国内に見えるため、追跡が困難になる。こうした技術的な障壁を乗り越えるには、国際的な情報共有と、民間企業との協働が不可欠である。

安心して投資できる環境づくりへ

NISA制度の拡充により、投資はもはや一部の富裕層だけのものではなくなった。家計の資産形成手段として、証券口座は広く一般に普及しつつある。だからこそ、誰もが安心して取引できる環境を整えることは、金融行政にとって喫緊の課題である。

そのためには、制度の整備だけでなく、ユーザー教育やリテラシー向上、そして何よりも「被害に遭ったときに守られる」という信頼の構築が不可欠だ。サイバー攻撃は防ぎきれないこともある。だが、被害を最小限に抑え、迅速に回復できる仕組みがあれば、人々は再び安心して投資に向き合うことができる。

証券口座を狙うサイバー攻撃は、単なる技術的な問題ではない。それは、制度の隙間を突き、個人の油断を狙い、社会の信頼を揺るがす“構造的な脅威”である。

だが同時に、私たちにはそれに立ち向かう手段もある。多要素認証やパスキーの導入、公式アプリからのアクセス、通知設定、信頼できるIoT機器の選定——これら一つひとつの行動が、サイバー攻撃の連鎖を断ち切る鍵となる。

「IoT機器のセキュリティに関心を持ってチェックしている人は、まだ少ないのではないかと思います。こうした分野の重要性は急速に高まっていると感じます。たとえばセットトップボックスに関して言えば、中国のメーカーが製造している製品も多く見られます。中には、あまり知られていないメーカーの製品を『安いから』という理由で使っている人もいますが、そうした製品にはセキュリティ上の脆弱性があるケースも少なくありません。できるだけ信頼性のあるメーカーの製品を選ぶ方が安心だと思います。また、IoT機器のセキュリティ対策については、経済産業省を中心に取り組みが進められており、現在『JC-STAR』というラベリング制度が始まっています。この制度では、セキュリティ対策が施されたIoT機器に『JC-STAR ラベル』が貼付されるようになっており、消費者が製品を選ぶ際の判断材料として活用できるようになっています。このラベルが貼られている製品は、一定のセキュリティ基準を満たしていることを示しているため、今後はこうしたラベルの有無が製品選びの基準のひとつになるのではないかと思います」(成田氏)

制度と個人、企業と行政が連携し、透明性と信頼性を軸にしたセキュリティ文化を築くこと。それこそが、デジタル時代の資産を守るための最も確かな道である。

Stop mimicking and start anchoring

The mimicry trap

CIOs today face unprecedented pressure from board, business and shareholders to mirror big tech success stories. The software industry spends 19% of its revenue on IT, while hospitality spends less than 3%.

In our understanding, this isn’t an anomaly; it’s a fundamental truth that most CIOs are ignoring in their rush to emulate Big Tech playbooks. The result is a systematic misallocation of resources based on a fundamental misunderstanding of how value creation works across industries.

Chart: IT spending by industry
IT spending by industry
(Source: Collated across publications industry & consulting)

Ankur Mittal, Rajnish Kasat

  • The majority gap: Five out of seven industries spend below the cross-industry average, revealing the danger of benchmark-blind strategies
  • Context matters: Industries where technology is the product (software) versus where it enables the product (hospitality, real estate) show fundamentally different spending patterns

The gap reveals a critical flaw in enterprise technology strategy, the dangerous assumption that what works for Amazon, Google or Microsoft should work everywhere else. This one-size-fits-all mindset has transformed technology from a strategic asset into an expensive distraction.

YearIT Spend Growth Rate (A)Real GDP Growth Rate (B)Growth Differential (A-B)
2016-2.9%3.4%-6.3%
20172.9%3.8%-0.9%
20185.7%3.6%2.1%
20192.7%2.8%-0.1%
2020-5.3%-3.1%-2.2%
202113.9%6.2%7.7%
20229.8%3.5%6.3%
20232.2%3.0%-0.8%
20249.5%3.2%6.3%
20257.9%2.8%5.1%

Table 1 – IT Spend versus Real GDP differential analysis (Source: IT Spend – Gartner, GDP – IMF)

According to Gartner, “global IT spend is projected to reach $5.43 trillion in 2025 (7.9% growth)”. IT spending has consistently outpaced real GDP growth, based on IMF World Economic Outlook data, IMF WEO. Over the past decade, global IT expenditure has grown at an average rate of ~5% annually, compared to ~3% for real GDP — a differential of roughly 2 percentage points per year. While this trend reflects increasing digital maturity and technology adoption, it also highlights the cyclical nature of IT investment. Periods of heightened enthusiasm, such as the post-COVID digital acceleration and the GenAI surge in 2023–24, have historically been followed by corrections, as hype-led spending does not always translate into sustained value.

Moreover, failure rates for IT programs remain significantly higher than those in most engineered sectors and comparable to FMCG and startup environments. Within this, digital and AI-driven initiatives show particularly elevated failure rates. As a result, not all incremental IT spend converts into business value.

Hence, in our experience, the strategic value of IT should be measured by how effectively it addresses industry-specific value creation. Different industries have vastly different technology intensity and value-creation dynamics. In our view, CIOs must therefore resist trend-driven decisions and view IT investment through their industry’s value-creation to sharpen competitive edge. To understand why IT strategies diverge across industries shaped by sectoral realities and maturity differences, we need to examine how business models shape the role of technology.

Business model maze

We have observed that funding business outcomes rather than chasing technology fads is easier said than done. It’s difficult to unravel the maze created by the relentless march of technological hype versus the grounded reality of business. But the role of IT is not universal; its business relevance changes from one industry to another. Let’s explore how this plays out across industries, starting with hospitality, where service economics dominates technology application.

Hospitality

The service equation in the hospitality industry differs from budget to premium, requiring leaders to understand the different roles technology plays.

  • Budget hospitality: Technology reduces cost, which drives higher margins
  • Premium hospitality: Technology enables service, but human touch drives value

From our experience, it’s paramount to understand and absorb the above difference, as quick digital check-ins serve efficiency, but when a guest at a luxury hotel encounters a maze of automated systems instead of a personal service, technology defeats its own purpose.

You might ask why; it’s because the business model in the hospitality industry is built on human interaction. The brand promise centers on human connection — a competitive advantage of a luxury hotel such as Taj — something that excessive automation actively undermines.

This contrast becomes even more evident when we examine the real estate industry. A similar misalignment between technology ambition and business fundamentals can lead to identity-driven risk, such as in the case of WeWork.

Real estate

WeWork, a real estate company that convinced itself and investors that it was a technology company. The result, a spectacular collapse when reality met the balance sheet, leading to its identity crisis. The core business remained leasing physical space, but the tech-company narrative drove valuations and strategies completely divorced from operational reality. This, as we all know, led to WeWork’s collapse from a $47 billion valuation to bankruptcy.

Essentially, in real estate, the business model is built on physical assets with long transaction cycles pushing IT to a supporting function. Here, IT is about enabling asset operations and margin preservation rather than reshaping the value proposition. From what we have seen, over-engineering IT in such industries rarely shifts the value needle. In contrast, the high-tech industry represents a case where technology is not just an enabler, it is the business.

High Tech

The technology itself is the product as the business model is built on digital platforms, and technological capabilities determine market leadership. The IT spend, core to the business model, is a strategic weapon for automation and data monetization.

Business model maze

While software companies allocate nearly 19% of their revenue to IT, hospitality firms spend less than 3%. We believe that this 16-point difference isn’t just a statistic; it’s a strategic signal. It underscores why applying the same IT playbook across such divergent industries is not only ineffective but potentially harmful. What works for a software firm may be irrelevant or even harmful for a hospitality brand. These industry-specific examples highlight a deeper leadership challenge: The ability to resist trend-driven decisions and instead anchor technology investment to business truths.

Beyond trends: anchoring technology to business truths

In a world obsessed with digital transformation, CIOs need the strategic discernment to reject initiatives that don’t align with business reality. We have observed that competitive advantage comes from contextual optimization, not universal best practices.

This isn’t about avoiding innovation; it’s about avoiding expensive irrelevance. We have seen that the most successful technology leaders understand that their job is not to implement the latest trends but to rationally analyze and choose to amplify what makes their business unique.

For most industries outside of high-tech, technology enables products and services rather than replacing them. Data supports decision-making rather than becoming a monetizable asset. Market position depends on industry-specific factors. And returns come from operational efficiency and customer satisfaction, not platform effects.

Chasing every new frontier may look bold, but enduring advantage comes from knowing what to adopt, when to adopt and what to ignore. The allure of Big Tech success stories, Amazon’s platform dominance, Google’s data monetization and Apple’s closed ecosystem has created a powerful narrative, but its contextually bound. Their playbook works in digital-native business models but can be ill-fitting for others. Therefore, their model is not universally transferable, and blind replication can be misleading.

We believe, CIOs must resist and instead align IT strategy with their industry’s core value drivers. All of this leads to a simple but powerful truth — context is not a constraint; it’s a competitive advantage.

Conclusion: Context as competitive advantage

The IT spending gap between software and hospitality isn’t a problem to solve — it’s a reality to embrace. Different industries create value in fundamentally different ways, and technology strategies must reflect this truth.

Winning companies use technology to sharpen their competitive edge — deepening what differentiates them, eliminating what constrains them and selectively expanding where technology unlocks genuine new value, all anchored in their core business logic.

Long-term value from emerging technologies comes from grounded application, not blind adoption. In the race to transform, the wisest CIOs will be those who understand that the best technology decisions are often the ones that honour, rather than abandon the fundamental nature of their business. The future belongs not to those who adopt the most tech, but to those who adopt the right tech for the right reasons.

Disclosure: This article reflects author(s) independent insights and perspectives and bears no official endorsement. It does not promote any specific company, product or service.

This article is published as part of the Foundry Expert Contributor Network.
Want to join?

Beyond lift-and-shift: Using agentic AI for continuous cloud modernization

The promise of cloud is agility, but the reality of cloud migration often looks more like a high-stakes, one-time project. When faced with sprawling, complex legacy applications — particularly in Java or .NET — the traditional “lift-and-shift” approach is only a halfway measure. It moves the complexity, but doesn’t solve it. The next strategic imperative for the CIO is to transition from periodic, costly overhauls to continuous modernization powered by autonomous agentic AI. This shift transforms migration from a finite, risk-laden project into an always-on optimization engine that continuously grooms your application portfolio, directly addressing complexity and accelerating speed-to-market.

The autonomous engine: Agentic AI for systematic refactoring 

Agentic AI systems are fundamentally different from traditional scripts; they are goal-driven and capable of planning, acting and learning. When applied to application modernization, they can operate directly on legacy codebases to prepare them for a cloud-native future.

Intelligent code refactoring

The most significant bottleneck in modernization is refactoring — restructuring existing code without changing its external behavior to improve maintainability, efficiency and cloud-readiness. McKinsey estimates that Generative AI can shave 20–30% off refactoring time and can reduce migration costs by up to 40%. Agentic AI tools leverage large language models (LLMs) to ingest entire repositories, analyze cross-file dependencies and propose or even execute complex refactoring moves, such as breaking a monolith into microservices. For applications running on legacy Java or .NET frameworks, these agents can systematically:

  • Identify and flag “code smells” (duplicated logic, deeply nested code).
  • Automatically convert aging APIs to cloud-native or serverless patterns.
  • Draft and apply migration snippets to move core functions to managed cloud services.

Automated application dependency mapping

Before any refactoring can begin, you need a complete and accurate map of application dependencies, which is nearly impossible to maintain manually in a large enterprise. Agentic AI excels at this through autonomous discovery. Agents analyze runtime telemetry, network traffic and static code to create a real-time, high-fidelity map of the application portfolio. As BCG highlights, applying AI to core platform processes helps to reduce human error and can accelerate business processes by 30% to 50%. In this context, the agent is continuously identifying potential service boundaries, optimizing data flow and recommending the most logical containerization or serverless targets for each component.

Practical use cases for continuous value 

This agentic approach delivers tangible business value by automating the most time-consuming and error-prone phases of modernization:

Use CaseAI Agent ActionBusiness Impact
Dependency mappingAnalyzes legacy code and runtime data to map component-to-component connections and external service calls.Reduced risk: Eliminates manual discovery errors that cause production outages during cutover. 
Intelligent code refactoringSystematically restructures code for cloud-native consumption (e.g., converting monolithic C# or Java code into microservices).Cost & speed: Reduces developer toil and cuts transformation timelines by as much as 50%. 
Continuous security posture enforcementThe agent autonomously scans for new vulnerabilities (CVEs), identifies affected code components and instantly applies security patches or configuration changes (e.g., updating a policy or library version) across the entire portfolio.Enhanced resilience: Drastically reduces the “time-to-remediation” from weeks to minutes, proactively preventing security breaches and enforcing a compliant posture 24/7. 
Real-time performance tuningMonitors live workload patterns (e.g., CPU, latency, concurrent users) and automatically adjusts cloud resources (e.g., rightsizing instances, optimizing database indices, adjusting serverless concurrency limits) to prevent performance degradation.Maximized ROI: Ensures applications are always running with the optimal balance of speed and cost, eliminating waste from over-provisioning and avoiding customer-impacting performance slowdowns. 

Integrating human-in-the-loop (HITL) framework governance 

The transition to an agent-driven modernization model doesn’t seek to remove the human role; rather, it elevates it from manual, repetitive toil to strategic governance. The success of continuous modernization hinges on a robust human-in-the-loop (HITL) framework. This framework mandates that while the agent autonomously identifies optimization opportunities (e.g., a component generating high costs) and formulates a refactoring plan, the deployment is always gated by strict human oversight. The role of the developer shifts to defining the rules, validating the agent’s proposed changes through automated testing and ultimately approving the production deployment incrementally. This governance ensures that the self-optimizing environment remains resilient and adheres to crucial business objectives for performance and compliance.

Transforming the modernization cost model 

The agentic approach fundamentally transforms the economic framework for managing IT assets. Traditional “lift-and-shift” and periodic overhauls are viewed as massive, high-stakes capital expenditure (CapEx) projects. By shifting to an autonomous, continuous modernization engine, the financial model transitions to a predictable, utility-like pperational expenditure (OpEx). This means costs are tied directly to the value delivered and consumption efficiency, as the agent continuously grooms the portfolio to optimize for cost. This allows IT to fund modernization as an always-on optimization function, making the management of the cloud estate a sustainable, predictable line item rather than a perpetual budget shock.

Shifting the development paradigm: From coder to orchestrator 

The organizational impact of agentic AI is as critical as the technical one. By offloading the constant work of identifying technical debt, tracking dependencies and executing routine refactoring or patching, the agent frees engineers from being primarily coders and maintainers. The human role evolves into the AI orchestrator or System Architect. Developers become responsible for defining the high-level goals, reviewing the agent’s generated plans and code for architectural integrity and focusing their time on innovation, complex feature development and designing the governance framework itself. This strategic shift not only reduces developer burnout and increases overall productivity but is also key to attracting and retaining top-tier engineering talent, positioning IT as a center for strategic design rather than just a maintenance shop.

The pilot mandate: Starting small, scaling quickly 

For CIOs facing pressure to demonstrate AI value responsibly, the adoption of agentic modernization must begin with a targeted, low-risk pilot. The objective is to select a high-value application—ideally, a non-critical helper application or an internal-facing microservice that has a quantifiable amount of technical debt and clear performance or cost metrics. The goal of this pilot is to prove the agent’s ability to execute the full modernization loop autonomously: Discovery > Refactoring > Automated Testing > Human Approval > Incremental Deployment. Once key success metrics (such as a 40% reduction in time-to-patch or a 15% improvement in cost efficiency) are validated in this controlled environment, the organization gains the confidence and blueprint needed to scale the agent framework horizontally across the rest of the application portfolio, minimizing enterprise risk.

The strategic mandate: Self-optimizing resilience 

By adopting autonomous agents, the operational model shifts from reactive fixes to a resilient, self-optimizing environment. Gartner projects that autonomous AI agents will be one of the fastest transformations in enterprise technology, with a major emphasis on their ability to orchestrate entire workflows across the application migration and modernization lifecycle. These agents are not just tools; they are continuous improvement loops that proactively:

  • Identify a component that is generating high cloud costs.
  • Formulate a refactoring plan for optimization (e.g., move to a managed serverless queue).
  • Execute the refactoring, run automated tests and deploy the change incrementally, all under strict human oversight.

The CIO’s task is to define the strategic goals — cost, performance, resilience — and deploy the agents with the governance and human-in-the-loop controls necessary to allow them to act. This proactive, agent-driven model is the only path to truly continuous modernization, ensuring your cloud estate remains an agile asset, not a perpetual liability

This article is published as part of the Foundry Expert Contributor Network.
Want to join?

CERN: cómo gestiona el riesgo una institución de investigación internacional

Pocas instituciones de investigación hay en el mundo con las dimensiones y el calado de la Organización Europea p​ara la Investigación Nuclear, el CERN. Fundado en 1954 por doce países europeos, el Laboratorio Europeo de Física de Partículas Elementales se localiza en el municipio suizo de Meyrin, en el cantón de Ginebra, aunque sus instalaciones se extienden a lo largo de la frontera franco-suiza. Entre ellas está el Gran Colisionador de Hadrones (LHC), el acelerador de partículas más grande del mundo. La colaboración internacional está en la base de su origen: más de 3.500 personas componen su plantilla fija. Una pequeña villa que se expande a 17.000 habitantes cuando se suma el personal científico de alrededor de 950 instituciones de más de 80 países distintos que colabora en proyectos del centro —o que lo hizo en 2024—. En este ecosistema propio, la gestión del riesgo de TI supone un reto a la altura de la institución.

“El principal problema es que estamos gestionando una organización enorme”, explica Stefan Lüders, CISO del CERN. “Somos uno de los institutos de investigación de física de partículas más importantes del planeta. Hacemos cosas sofisticadas e interesantes, lo que nos convierte en blanco de ataques de diferentes comunidades”, resume. Enumera varias de estas potenciales amenazas: script kiddies o hackers con un conocimiento básico, que suponen así y todo un riesgo potencial de seguridad; ransomware o exfiltración de datos; sabotajes al trabajo del CERN; acciones de espionaje y de grupos criminales que intentan infiltrarse a través de ordenadores o dispositivos.

“Aquí es donde entra la gente. Porque tenemos una comunidad de investigadores muy amplia, heterogénea y muy fluctuante. Hay muchos físicos que se unen a la organización cada año. Entran y salen para hacer su doctorado, investigan en el CERN y luego se van”, describe, apuntando al desafío de “cuidar a esta comunidad de usuarios. El otro desafío es el mundo flexible y de rápido desarrollo de las TI”. Añade también la programación —la importación de bibliotecas de código abierto, su seguridad, etc.— y la IA. “Cuanto más sofisticada se vuelve la IA, mayor es la probabilidad de que esas herramientas de seguridad o ataque impulsadas por la IA intenten infiltrarse en la organización”.

Asegurando el CERN

Con esta situación de partida, ¿cómo se asegura una implementación efectiva de las iniciativas en ciberseguridad, que no interrumpan el trabajo científico? “No puedes”, afirma Lüders. “La ciberseguridad es inconveniente. Afrontémoslo”. Lüders lo equipara a cerrar con llave la puerta de casa o utilizar el PIN para sacar dinero del cajero; pueden ser molesto, pero necesario. “Intentamos explicar a nuestra comunidad por qué se necesitan medidas de seguridad”, señala. “Y si adaptamos nuestras medidas de seguridad a nuestro entorno, la gente las adopta. Sí, hace la investigación algo más complicada, pero solo un poco”.

Lüders insiste en el factor del trabajo en investigación. “No somos un banco. No tenemos billones de dólares. No somos una base militar, lo que significa que no debemos proteger a un país. Investigamos, lo que implica adaptar el nivel de seguridad y el de libertad académica para que ambos vayan de la mano. Y esa es una conversación constante con nuestra comunidad de usuarios”. Esta engloba desde el personal científico al de gestión de sistemas de control industrial, el departamento de TI o recursos humanos. “Para afrontar ese reto, es fundamental hablar con la gente. Por eso, insisto, la ciberseguridad es un tema muy sociológico: hablar con la gente, explicarles por qué hacemos esto”. Por ejemplo, no todo el mundo usa de buen grado los sistemas multifactor porque “admitámoslo, son un fastidio. Es mucho más fácil escribir una contraseña e, incluso, ¿quién quiere escribir una contraseña? Solo quieres entrar. Pero para las necesidades de protección, hoy en día tenemos contraseñas y autenticación multifactor. Así que le explicas a la gente qué estás protegiendo. Les decimos por qué es importante proteger su trabajo, al igual que los resultados de la investigación. Y la gran mayoría entiende que se necesita un cierto nivel de seguridad”, asegura. “Pero es un desafío porque aquí conviven muchas culturas diferentes, nacionalidades diferentes, opiniones y pensamientos diferentes, y orígenes diversos. Esto es lo que intentamos adaptar permanentemente”.

Stefan Lüders, CISO del CERN y Tim Bell, líder de la sección de gobernanza, riesgo y cumplimiento de TI del CERN

Stefan Lüders y Tim Bell, del CERN.

CERN

Se suma a la conversación Tim Bell, líder de la sección de gobernanza, riesgo y cumplimiento de TI del CERN, quien se encarga de la continuidad del negocio y la recuperación ante desastres. Bell introduce el problema del empleo de tecnología propia. “Si eres visitante de una universidad, querrás traer tu portátil y usarlo en el CERN. No podemos permitirnos retirar estos dispositivos electrónicos al llegar a las instalaciones. Sería incompatible con la naturaleza de la organización. Esto implica que debemos ser capaces de implementar medidas de seguridad del tipo BYOD”.

Porque en el núcleo de todo se mantiene siempre el carácter colaborativo del CERN. “Los trabajos académicos, la ciencia abierta, la libertad de investigación, son parte de nuestro centro. La ciberseguridad necesita adaptarse a esto”, constata Lüders. “Tenemos 200.000 dispositivos en nuestra red que son BYOD”. ¿Cómo se aplica entonces la adaptación de la ciberprotección? “Se llama defensa en profundidad”, explica el CISO. “No podemos instalar nada en estos dispositivos finales porque no nos pertenecen, (…) pero tenemos monitorización de red”. De este modo, y aunque no se tenga acceso directo a cada aparato, se advierte cuándo se está realizando algo en contra de las políticas del centro, tanto a nivel de ciberseguridad como de usos no apropiados, como por ejemplo emplear la tecnología que proveen para intereses particulares.

“Es fundamental hablar con la gente. La ciberseguridad es un tema muy sociológico”, reflexiona Lüders

Estas medidas se extienden, además, a sistemas obsoletos, que la organización es capaz de asimilar porque cuentan con una red lo suficientemente resistente como para que, aunque un equipo se vea comprometido, no dañe ningún otro sistema del CERN. El problema de la tecnología heredada se extiende al equipo necesario para los experimentos de física que se realizan en el centro. “Estos están protegidos por redes dedicadas, lo que permite que la protección de la red se active y los proteja contra cualquier tipo de abuso”, explica Lüders. Sobre los dispositivos conectados IoT no diseñados con la ciberseguridad en mente, “un problema para todas las industrias”, Lüders es tajante: “Nunca se conseguirá seguridad en los dispositivos IoT”. Su solución pasa por conectarlos a segmentos de red restringidos donde no se les permite comunicarse con nada más, y luego definir destinos a los que sí comunicarse.

CERN

CERN

Marco general

Esto es parte de un reto mayor: alinear la parte de TI y la de OT, de tal forma que se establezca una continuidad en la seguridad en toda la organización. Un reto que pasa por la centralización. “Hoy en día la parte de OT, los sistemas de controles del CERN, están empleando virtualización de TI”, explica Lüders. “La estrategia es reunir a la gente de TI y la de control, de tal modo que la gente de control pueda usar los servicios TI en su beneficio”. Desde el departamento tecnológico se provee con un sistema central con distintas funcionalidades para operaciones, así como por otras áreas de la organización, accesible a través de un único punto de entrada. “Ese es el poder de la centralización”. En este sistema entran, además, nuevas herramientas como las de IA en LLM, en el que tienen en funcionamiento un grupo de trabajo para buscar la mejor manera de emplearlas. “Nos enfrentamos a un gran descubrimiento y, más adelante, lo centralizaremos mediante un servicio central de TI. Y así es como lo hacemos con todas las tecnologías”.

Igual que las materias que investigan en el CERN van evolucionando, así lo hace su marco de gobernanza de TI. Este ha ido siguiendo las novedades del sector, explica Bell, de la mano de auditorías que permiten funcionar según las mejores prácticas. “La parte de la gobernanza está volviéndose más formal. En general, todo estaba bien organizado; solo se trataba de estandarizarlo y desarrollar marcos de políticas a su alrededor”. Pese al establecimiento de estos estándares, el resultado es lo contrario de rígido, explica Bell, quien lo ejemplifica con el caso de una auditoría reciente de ciberseguridad en la que el CERN fue evaluado según uno de los estándares internacionales, lo que sirvió para mejorar el nivel de madurez. “Estamos adoptando una política de gobernanza de TI bastante flexible, aprendiendo de la experiencia de otros en la adopción de estándares del sector”, concluye.

❌