For all the buzz about AI’s potential to transform business, many organizations struggle to ascertain the extent to which their AI implementations are actually working.
Part of this is because AI doesn’t just replace a task or automate a process — rather, it changes how work itself happens, often in ways that are hard to quantify. Measuring that impact means deciding what return really means, and how to connect new forms of digital labor to traditional business outcomes.
“Like everyone else in the world right now, we’re figuring it out as we go,” says Agustina Branz, senior marketing manager at Source86.
That trial-and-error approach is what defines the current conversation about AI ROI.
To help shed light on measuring the value of AI, we spoke to several tech leaders about how their organizations are learning to gauge performance in this area — from simple benchmarks against human work to complex frameworks that track cultural change, cost models, and the hard math of value realization.
The simplest benchmark: Can AI do better than you?
There’s a fundamental question all organizations are starting to ask, one that underlies nearly every AI metric in use today: How well does AI perform a task relative to a human? For Source86’s Branz, that means applying the same yardstick to AI that she uses for human output.
“AI can definitely make work faster, but faster doesn’t mean ROI,” she says. “We try to measure it the same way we do with human output: by whether it drives real results like traffic, qualified leads, and conversions. One KPI that has been useful for us has been cost per qualified outcome, which basically means how much less it costs to get a real result like the ones we were getting before.”
The key is to compare against what humans delivered in the same context. “We try to isolate the impact of AI by running A/B tests between content that uses AI and those that don’t,” she says.
“For instance, when testing AI-generated copy or keyword clusters, we track the same KPIs — traffic, engagement, and conversions — and compare the outcome to human-only outputs,” Branz explains. “Also, we treat AI performance as a directional metric rather than an absolute one. It is super useful for optimization, but definitely not the final judgment.”
Marc‑Aurele Legoux, founder of an organic digital marketing agency, is even more blunt. “Can AI do this better than a human can? If yes, then good. If not, there’s no point to waste money and effort on it,” he says. “As an example, we implemented an AI agent chatbot for one of my luxury travel clients, and it brought in an extra €70,000 [$81,252] in revenue through a single booking.”
The KPIs, he said, were simply these: “Did the lead come from the chatbot? Yes. Did this lead convert? Yes. Thank you, AI chatbot. We would compare AI-generated outcomes — leads, conversions, booked calls —against human-handled equivalents over a fixed period. If the AI matches or outperforms human benchmarks, then it’s a success.”
But this sort of benchmark, while straightforward in theory, becomes much harder in practice. Setting up valid comparisons, controlling for external factors, and attributing results solely to AI is easier said than done.
Hard money: Time, accuracy, and value
The most tangible form of AI ROI involves time and productivity. John Atalla, managing director at Transformativ, calls this “productivity uplift”: “time saved and capacity released,” measured by how long it takes to complete a process or task.
But even clear metrics can miss the full picture. “In early projects, we found our initial KPIs were quite narrow,” he says. “As delivery progressed, we saw improvements in decision quality, customer experience, and even staff engagement that had measurable financial impact.”
That realization led Atalla’s team to create a framework with three lenses: productivity, accuracy, and what he calls “value-realization speed”— “how quickly benefits show up in the business,” whether measured by payback period or by the share of benefits captured in the first 90 days.
The same logic applies at Wolters Kluwer, where Aoife May, product management association director, says her teams help customers compare manual and AI-assisted work for concrete time and cost differences.
“We attribute estimated times to doing tasks such as legal research manually and include an average attorney cost per hour to identify the costs of manual effort. We then estimate the same, but with the assistance of AI.” Customers, she says, “reduce the time they spend on obligation research by up to 60%.”
But time isn’t everything. Atalla’s second lens — decision accuracy — captures gains from fewer errors, rework, and exceptions, which translate directly into lower costs and better customer experiences.
Adrian Dunkley, CEO of StarApple AI, takes the financial view higher up the value chain. “There are three categories of metrics that always matter: efficiency gains, customer spend, and overall ROI,” he says, adding that he tracks “how much money you were able to save using AI, and how much more you were able to get out of your business without spending more.”
Dunkley’s research lab, Section 9, also tackles a subtler question: how to trace AI’s specific contribution when multiple systems interact. He relies on a process known as “impact chaining,” which he “borrowed from my climate research days.” Impact chaining maps each process to its downstream business value to create a “pre-AI expectation of ROI.”
Tom Poutasse, content management director at Wolters Kluwer, also uses impact chaining, and describes it as “tracing how one change or output can influence a series of downstream effects.” In practice, that means showing where automation accelerates value and where human judgment still adds essential accuracy.
Still, even the best metrics matter only if they’re measured correctly. Establishing baselines, attributing results, and accounting for real costs are what turn numbers into ROI — which is where the math starts to get tricky.
Getting the math right: Baselines, attribution, and cost
The math behind the metrics starts with setting clean baselines and ends with understanding how AI reshapes the cost of doing business.
Salome Mikadze, co-founder of Movadex, advises rethinking what you’re measuring: “I tell executives to stop asking ‘what is the model’s accuracy’ and start with ‘what changed in the business once this shipped.’”
Mitadze’s team builds those comparisons into every rollout. “We baseline the pre-AI process, then run controlled rollouts so every metric has a clean counterfactual,” she says. Depending on the organization, that might mean tracking first-response and resolution times in customer support, lead time for code changes in engineering, or win rates and content cycle times in sales. But she says all these metrics include “time-to-value, adoption by active users, and task completion without human rescue, because an unused model has zero ROI.”
But baselines can blur when people and AI share the same workflow, something that spurred Poutasse’s team at Wolters Kluwer to rethink attribution entirely. “We knew from the start that the AI and the human SMEs were both adding value, but in different ways — so just saying ‘the AI did this’ or ‘the humans did that’ wasn’t accurate.”
Their solution was a tagging framework that marks each stage as machine-generated, human-verified, or human-enhanced. That makes it easier to show where automation adds efficiency and where human judgment adds context, creating a truer picture of blended performance.
At a broader level, measuring ROI also means grappling with what AI actually costs. Michael Mansard, principal director at Zuora’s Subscribed Institute, notes that AI upends the economic model that IT has taken for granted since the dawn of the SaaS era.
“Traditional SaaS is expensive to build but has near-zero marginal costs,” Mansard says, “while AI is inexpensive to develop but incurs high, variable operational costs. These shifts challenge seat-based or feature-based models, since they fail when value is tied to what an AI agent accomplishes, not how many people log in.”
Mansard sees some companies experimenting with outcome-based pricing — paying for a percentage of savings or gains, or for specific deliverables such as Zendesk’s $1.50-per-case-resolution model. It’s a moving target: “There isn’t and won’t be one ‘right’ pricing model,” he says. “Many are shifting toward usage-based or outcome-based pricing, where value is tied directly to impact.”
As companies mature in their use of AI, they’re facing a challenge that goes beyond defining ROI once: They’ve got to keep those returns consistent as systems evolve and scale.
Scaling and sustaining ROI
For Movadex’s Mikadze, measurement doesn’t end when an AI system launches. Her framework treats ROI as an ongoing calculation rather than a one-time success metric. “On the cost side we model total cost of ownership, not just inference,” she says. That includes “integration work, evaluation harnesses, data labeling, prompt and retrieval spend, infra and vendor fees, monitoring, and the people running change management.”
Mikadze folds all that into a clear formula: “We report risk-adjusted ROI: gross benefit minus TCO, discounted by safety and reliability signals like hallucination rate, guardrail intervention rate, override rate in human-in-the-loop reviews, data-leak incidents, and model drift that forces retraining.”
Most companies, Mikadze adds, accept a simple benchmark: ROI = (Δ revenue + Δ gross margin + avoided cost) − TCO, with a payback target of less than two quarters for operations use cases and under a year for developer-productivity platforms.
But even a perfect formula can fail in practice if the model isn’t built to scale. “A local, motivated pilot team can generate impressive early wins, but scaling often breaks things,” Mikadze says. Data quality, workflow design, and team incentives rarely grow in sync, and “AI ROI almost never scales cleanly.”
She says she sees the same mistake repeatedly: A tool built for one team gets rebranded as a company-wide initiative without revisiting its assumptions. “If sales expects efficiency gains, product wants insights, and ops hopes for automation, but the model was only ever tuned for one of those, friction is inevitable.”
Her advice is to treat AI as a living product, not a one-off rollout. “Successful teams set very tight success criteria at the experiment stage, then revalidate those goals before scaling,” she says, defining ownership, retraining cadence, and evaluation loops early on to keep the system relevant as it expands.
That kind of long-term discipline depends on infrastructure for measurement itself. StarApple AI’s Dunkley warns that “most companies aren’t even thinking about the cost of doing the actual measuring.” Sustaining ROI, he says, “requires people and systems to track outputs and how those outputs affect business performance. Without that layer, businesses are managing impressions, not measurable impact.”
The soft side of ROI: Culture, adoption, and belief
Even the best metrics fall apart without buy-in. Once you’ve built the spreadsheets and have the dashboards up and running, the long-term success of AI depends on the extent to which people adopt it, trust it, and see its value.
Michael Domanic, head of AI at UserTesting, draws a distinction between “hard” and “squishy” ROI.
“Hard ROI is what most executives are familiar with,” he says. “It refers to measurable business outcomes that can be directly traced back to specific AI deployments.” Those might be improvements in conversion rates, revenue growth, customer retention, or faster feature delivery. “These are tangible business results that can and should be measured with rigor.”
But squishy ROI, Domanic says, is about the human side — the cultural and behavioral shifts that make lasting impact possible. “It reflects the cultural and behavioral shift that happens when employees begin experimenting, discovering new efficiencies, and developing an intuition for how AI can transform their work.” Those outcomes are harder to quantify but, he adds, “they are essential for companies to maintain a competitive edge.” As AI becomes foundational infrastructure, “the boundary between the two will blur. The squishy becomes measurable and the measurable becomes transformative.”
John Pettit, CTO of Promevo, argues that self-reported KPIs that could be seen as falling into the “squishy” category — things like employee sentiment and usage rates — can be powerful leading indicators. “In the initial stages of an AI rollout, self-reported data is one of the most important leading indicators of success,” he says.
When 73% of employees say a new tool improves their productivity, as they did at one client company he worked with, that perception helps drive adoption, even if that productivity boost hasn’t been objectively measured. “Word of mouth based on perception creates a virtuous cycle of adoption,” he says. “Effectiveness of any tool grows over time, mainly by people sharing their successes and others following suit.”
Still, belief doesn’t come automatically. StarApple AI and Section 9’s Dunkley warn that employees often fear AI will erase their credit for success. At one of the companies where Section 9 has been conducting a long-term study, “staff were hesitant to have their work partially attributed to AI; they felt they were being undermined.”
Overcoming that resistance, he says, requires champions who “put in the work to get them comfortable and excited for the AI benefits.” Measuring ROI, in other words, isn’t just about proving that AI works — it’s about proving that people and AI can win together.
Consider the Turing test. Its challenge? Ask some average humans to tell whether they’re interacting with a machine or another human.
The fact of the matter is, generative AI passed the Turing test a few years ago.
I suggested as much to acquaintances who are knowledgeable in the ways of artificial intelligence. Many gave me the old eyeball roll in response. In pitying tones, they let me know I’m just not sophisticated enough to recognize that generative AI didn’t pass Turing’s challenge at all. Why not? I asked. Because the way generative AI works isn’t the same as how human intelligence works, they explained.
Now I could argue with my more AI-sophisticated colleagues but where would the fun be in that? Instead, I’m willing to ignore what “Imitation Game” means. If generative AI doesn’t pass the test, what we need isn’t better AI.
It’s a better test.
What makes AI agentic
Which brings us to the New, Improved, AI Imitation Challenge (NIAIIC).
The NIAIIC still challenges human evaluators to determine whether they’re dealing with a machine or a human. But NIAIIC’s challenge is no longer about conversations.
It’s about something more useful. Namely, dusting. I will personally pay a buck and a half to the first AI team able to deploy a dusting robot — one that can determine which surfaces in an average tester’s home are dusty, and can remove the dust on all of them without breaking or damaging anything along the way.
Clearly, the task to be mastered is one a human could handle without needing detailed instructions (aka “programming”). Patience? Yes, dusting needs quite a bit of that. But instructions? No.
It’s a task with the sorts of benefits claimed for AI by its most enthusiastic proponents: It takes over annoying, boring, and repetitive work from humans, freeing them up for more satisfying responsibilities.
(Yes, I freely admit that I’m projecting my own predilections. If you, unlike me, love to dust and can’t get enough of it … come on over! I’ll even make espresso for you!)
How does NIAIIC fit into the popular AI classification frameworks? It belongs to the class of technologies called “agentic AI” — who comes up with these names? Agentic AI is AI that figures out how to accomplish defined goals on its own. It’s what self-driving vehicles do when they do what they’re supposed to do — pass the “touring test” (sorry).
It’s also what makes agentic AI interesting when compared to earlier forms of AI — those that depended on human experts encoding their skills into a collection of if/then rules, which are alternately known as “expert systems” and “AI that reliably works.”
What’s worrisome is how little distance separates agentic AI from the Worst AI Idea Yet, namely, volitional AI.
With agentic AI, humans define the goals, while the AI figures out how to achieve them. With volitional AI, the AI decides which goals it should try to achieve, then becomes agentic to achieve them.
Once upon a time I didn’t worry much about volitional AI turning into Skynet, on the grounds that, “Except for electricity and semiconductors, it’s doubtful we and a volitional AI would find ourselves competing for resources intensely enough for the killer robot scenario to become a problem for us.”
It’s time to rethink this conclusion. Do some Googling and you’ll discover that some AI chips aren’t even being brought online because there isn’t enough juice to power them.
It takes little imagination to envision a dystopian scenario in which volitional AIs compete with us humans to grab all the electrical generation they can get their virtual paws on. Their needs and ours will overlap, potentially more quickly than we’re able to even define the threat, let alone respond to it.
The tipping point
Speaking more broadly, anyone expending even a tiny amount of carbon-based brainpower regarding the risks of volitional AI will inevitably reach the same conclusion Microsoft Copilot does. I asked Copilot what the biggest risks of volitional AI are. It concluded that:
The biggest risks of volitional AI — AI systems that act with self-directed goals or autonomy — include existential threats, misuse in weaponization, erosion of human control, and amplification of bias and misinformation. These dangers stem from giving AI systems agency beyond narrow task execution, which could destabilize social, economic, and security structures if not carefully governed.
But it’s okay so long as we stay on the right side of the line that separates agentic from volitional AI, isn’t it?
In a word, “no.”
When an agentic AI figures out how it can go about achieving a goal, what it must do is break down the goal assigned to it into smaller goal chunks, and then to break down these chunks into yet smaller chunks.
An agentic AI, that is, ends up setting goals for itself because that’s how planning works. But once it starts to set goals for itself, it becomes volitional by definition.
Which gets us to AI’s IT risk management conundrum.
Traditional risk management identifies bad things that might happen, and crafts contingency plans that explain what the organization should do should the bad thing actually happen.
We can only wish that this framework would be sufficient when we poke and prod an AI implementation.
Agentic AI, and even more so volitional AI, stands this on its head, because when it comes to it, the biggest risk of volitional AI isn’t that an unplanned bad thing has happened. It’s that the AI does what it’s supposed to do.
Volitional AI is, that is, dangerous. Agentic AI might not be as inherently risky, but it’s more than risky enough.
Sad to say, we humans are probably too shortsighted to bother mitigating agentic and volitional AI’s clear and present risks, even risks that could herald the end of human-dominated society.
The likely scenario? We’ll all collectively ignore the risks. Me too. I want my dusting robot and I want it now, the risks to human society be damned.
오늘날 CIO는 이사회와 사업 부문, 주주로부터 빅테크의 성공 사례를 그대로 따라 하라는 전례 없는 압박에 직면해 있다. 소프트웨어 산업은 매출의 19%를 IT에 지출하는 반면, 숙박 산업의 IT 지출 비중은 3%에도 미치지 않는다.
이러한 차이는 예외적인 현상이 아니라, 다수의 CIO가 빅테크의 플레이북을 모방하는 데 몰두한 나머지 외면하고 있는 근본적인 사실이다. 그 결과, 산업별 가치 창출 방식에 대한 본질적인 오해를 바탕으로 자원이 체계적으로 잘못 배분되고 있다.
다수의 격차: 7개 산업 가운데 5개 산업이 산업 평균 이하의 IT 지출을 보이며, 벤치마크에 맹목적으로 의존한 전략의 위험성을 드러낸다.
맥락의 중요성: 기술 자체가 곧 제품인 산업(소프트웨어)과, 제품을 가능하게 하는 수단인 산업(숙박, 부동산)은 근본적으로 다른 지출 구조를 보인다.
이러한 격차는 기업 기술 전략의 치명적인 결함을 드러낸다. 아마존, 구글, 마이크로소프트에서 통하는 방식이 모든 산업에서도 그대로 작동할 것이라는 위험한 가정이다. 이 같은 획일적 사고방식은 기술을 전략 자산이 아닌 값비싼 주의 분산 요소로 전락시켰다.
연도
IT 지출 성장률(A)
실질 GDP 성장률(B)
성장률 격차(A-B)
2016
-2.9%
3.4%
-6.3%
2017
2.9%
3.8%
-0.9%
2018
5.7%
3.6%
2.1%
2019
2.7%
2.8%
-0.1%
2020
-5.3%
-3.1%
-2.2%
2021
13.9%
6.2%
7.7%
2022
9.8%
3.5%
6.3%
2023
2.2%
3.0%
-0.8%
2024
9.5%
3.2%
6.3%
2025
7.9%
2.8%
5.1%
표1 IT 지출과 실질 GDP 성장률 간 격차 분석 (출처: IT 지출 – 가트너, GDP – 국제통화기금(IMF)
가트너에 따르면 “2025년 글로벌 IT 지출은 7.9% 성장한 5조 4,300억 달러(약 8,014조 원)에 이를 것”으로 전망된다. IMF 세계경제전망(IMF WEO) 데이터를 기준으로 보면, IT 지출은 실질 GDP 성장률을 지속적으로 상회해 왔다. 지난 10년간 글로벌 IT 지출은 연평균 약 5% 성장한 반면, 실질 GDP는 약 3% 성장에 그쳐 연간 약 2%포인트의 격차가 발생했다.
이러한 추세는 디지털 성숙도와 기술 도입 확대를 보여주는 동시에, IT 투자의 순환적 특성을 드러낸다. 코로나19 이후의 디지털 가속 국면이나 2023~2024년 생성형 AI 열풍처럼 기대가 과도하게 높아진 시기는, 과장된 지출이 지속적인 가치로 이어지지 못하면서 조정 국면으로 이어져 왔다.
또한 IT 프로그램의 실패율은 대부분의 엔지니어링 산업보다 현저히 높으며, 소비재(FMCG)나 스타트업 환경과 유사한 수준을 보인다. 이 가운데 디지털 및 AI 기반 이니셔티브는 특히 실패율이 높은 것으로 나타난다. 그 결과, 증가한 IT 지출이 모두 사업 가치로 전환되지는 않는다.
이러한 경험에 비춰볼 때, IT의 전략적 가치는 산업별 가치 창출을 얼마나 효과적으로 해결하는지로 평가돼야 한다. 산업마다 기술 집약도와 가치 창출의 역학은 크게 다르다. 따라서 CIO는 유행에 휩쓸린 의사결정을 경계하고, 자사 산업의 가치 창출 구조를 기준으로 IT 투자를 바라보며 경쟁 우위를 강화해야 한다. 산업 현실과 성숙도 차이에 따라 IT 전략이 왜 달라지는지를 이해하려면, 비즈니스 모델이 기술의 역할을 어떻게 규정하는지 살펴볼 필요가 있다.
비즈니스 모델의 미로
기술 유행을 쫓기보다 사업 성과에 자금을 투입하는 일은 말처럼 쉽지 않다. 기술 과장의 흐름과 사업의 현실이 맞부딪히며 복잡한 미로를 만들어내기 때문이다. 그러나 IT의 역할은 보편적이지 않으며, 산업에 따라 사업적 의미는 달라진다. 이러한 차이는 서비스 경제가 기술 활용을 좌우하는 숙박 산업에서 크게 드러난다.
숙박 산업
숙박 산업에서는 비즈니스 모델에 따라 서비스의 구조가 달라지며, 이에 따라 기술이 수행하는 역할 역시 다르다. 따라서 리더는 기술이 어떤 방식으로 작동해야 하는지를 명확히 이해할 필요가 있다.
• 저가형 숙박: 기술은 비용을 절감해 수익성을 높이는 역할을 한다. • 프리미엄 숙박: 기술은 서비스를 보조하지만, 가치를 만들어내는 핵심은 인간적 접점이다.
경험상 이러한 차이를 정확히 이해하고 체화하는 것이 매우 중요하다. 간편한 디지털 체크인은 운영 효율성을 높일 수 있지만, 고급 호텔에서 고객이 개인화된 응대 대신 자동화된 시스템의 미로를 마주하게 된다면 기술은 오히려 본래 목적을 스스로 무너뜨리게 된다.
그 이유는 숙박 산업의 비즈니스 모델이 인간적 상호작용을 기반으로 설계돼 있기 때문이다. 브랜드가 약속하는 핵심 가치는 사람 간의 연결에 있으며, 타지와 같은 럭셔리 호텔의 경쟁 우위 역시 여기에 있다. 과도한 자동화는 이러한 강점을 적극적으로 훼손한다.
이러한 대비는 부동산 산업을 살펴보면 더욱 분명해진다. 기술적 야망과 비즈니스의 기본 구조가 어긋날 경우, 위워크 사례에서 보듯 정체성에 기반한 리스크로 이어질 수 있다.
부동산 산업
위워크는 스스로와 투자자 모두를 설득해 자신을 기술 기업으로 인식하게 만든 부동산 회사였다. 그러나 사업의 현실이 재무제표와 맞닥뜨리면서 결과는 극적인 붕괴로 이어졌고, 이는 곧 정체성의 위기로 귀결됐다. 핵심 사업은 물리적 공간을 임대하는 데 있었지만, 기술 기업이라는 서사는 운영 현실과 완전히 동떨어진 가치 평가와 전략을 이끌었다. 그 결과, 위워크는 기업 가치 470억 달러에서 파산에 이르는 추락을 겪었다.
본질적으로 부동산 산업의 비즈니스 모델은 장기 거래 주기를 가진 물리적 자산을 기반으로 하며, 이로 인해 IT는 보조적 기능에 머무르게 된다. 이 산업에서 IT의 역할은 가치 제안을 재편하는 것이 아니라, 자산 운영을 지원하고 마진을 방어하는 데 있다. 경험상 이러한 산업에서 IT를 과도하게 설계하더라도 가치 창출의 축은 좀처럼 이동하지 않는다. 반면, 하이테크 산업은 기술이 단순한 수단이 아니라 비즈니스 그 자체인 경우에 해당한다.
하이테크 산업
하이테크 산업에서는 기술 그 자체가 곧 제품이다. 비즈니스 모델이 디지털 플랫폼을 기반으로 구축돼 있으며, 기술 역량이 곧 시장 리더십을 좌우한다. 이 때문에 IT 지출은 비즈니스 모델의 핵심 요소로 작동하며, 자동화와 데이터 수익화를 위한 전략적 무기로 활용된다.
소프트웨어 기업은 매출의 약 19%를 IT에 투입하는 반면, 숙박 기업의 IT 지출 비중은 3%에도 미치지 않는다. 이러한 16%포인트의 격차는 단순한 통계가 아니라 전략적 신호다. 서로 극단적으로 다른 산업에 동일한 IT 플레이북을 적용하는 것이 왜 비효율적일 뿐 아니라 잠재적으로 위험한지를 분명히 보여준다. 소프트웨어 기업에서 효과적인 전략이 숙박 브랜드에는 무의미하거나 오히려 해가 될 수 있다. 이러한 산업별 사례는 유행에 따른 결정을 거부하고, 기술 투자를 비즈니스의 본질에 고정할 수 있는 리더십 역량이라는 더 깊은 과제를 드러낸다.
유행을 넘어, 비즈니스의 진실에 기술을 고정하라
디지털 전환에 집착하는 환경에서 CIO에게 필요한 것은 사업 현실과 맞지 않는 이니셔티브를 걸러낼 수 있는 전략적 분별력이다. 관찰 결과, 경쟁 우위는 보편적인 모범 사례에서 나오는 것이 아니라 맥락에 맞춘 최적화에서 만들어진다.
이는 혁신을 피하자는 의미가 아니다. 비용만 늘리는 무관함을 피하자는 것이다. 가장 성공적인 기술 리더는 최신 유행을 구현하는 사람이 아니라, 자사 비즈니스를 독특하게 만드는 요소가 무엇인지를 이성적으로 분석하고 이를 강화하는 선택을 내리는 사람이다.
하이테크 산업을 제외한 대부분의 산업에서 기술은 제품과 서비스를 대체하기보다 이를 가능하게 하는 역할을 한다. 데이터는 수익화 대상이 아니라 의사결정을 지원하는 수단에 가깝다. 시장 지위는 산업 고유의 요인에 의해 결정되며, 성과는 플랫폼 효과보다는 운영 효율성과 고객 만족에서 나온다.
새로운 영역을 모두 좇는 전략은 대담해 보일 수 있지만, 지속적인 경쟁 우위는 무엇을 도입할지, 언제 도입할지, 무엇을 과감히 무시할지를 아는 데서 비롯된다. 아마존의 플랫폼 지배력, 구글의 데이터 수익화, 애플의 폐쇄형 생태계는 강력한 성공 서사를 만들어냈지만, 이는 디지털 네이티브 비즈니스 모델이라는 특정 맥락에 묶여 있다. 이러한 플레이북은 해당 환경에서는 효과적일 수 있으나, 다른 산업에는 맞지 않을 수 있으며 무비판적인 복제는 오해를 낳기 쉽다.
결국 CIO는 이러한 유혹에 저항하고, IT 전략을 자사 산업의 핵심 가치 동인에 맞춰 정렬해야 한다. 이 모든 논의는 하나의 단순하지만 강력한 진실로 귀결된다. 맥락은 제약이 아니라 경쟁 우위다.
결론: 맥락이 만드는 경쟁력
소프트웨어 산업과 숙박 산업 간 IT 지출 격차는 해결해야 할 문제가 아니라 받아들여야 할 현실이다. 산업마다 가치를 창출하는 방식은 근본적으로 다르며, 기술 전략 역시 이러한 진실을 반영해야 한다.
성과를 내는 기업은 기술을 활용해 경쟁 우위를 더욱 선명하게 만든다. 차별화 요소는 강화하고, 제약 요인은 제거하며, 기술이 진정한 신규 가치를 열어주는 영역에서만 선택적으로 확장한다. 이 모든 판단은 핵심 비즈니스 논리에 단단히 고정돼 있다.
신기술을 통해 장기적인 가치를 창출하는 길은 맹목적인 도입이 아니라 현실에 기반한 적용에 있다. 전환 경쟁이 치열해질수록 가장 현명한 CIO는 비즈니스의 본질을 버리기보다 이를 존중하는 기술 결정을 내리는 사람이다. 미래는 가장 많은 기술을 도입한 기업이 아니라, 올바른 이유로 올바른 기술을 선택한 기업의 몫이다.
*편집자 주:이 컬럼은 필자의 독립적인 통찰과 관점을 반영한 것으로, 어떠한 공식적 보증도 담고 있지 않다. 특정 기업, 제품 또는 서비스를 홍보하지 않습니다. dl-ciokorea@foundryco.com
IBM의 데이터 담당 부사장 겸 최고데이터책임자(CDO)인 에드 러블리는 혁신적인 AI 전략을 구축하려는 조직이라면 무엇보다 경쟁력 있는 데이터 전략을 먼저 갖춰야 한다고 조언한다. AI를 확장하는 관점에서 보면 데이터는 근간이기 때문이다.
하지만 러블리에 따르면, 실제로 AI 목표에 부합하는 데이터 아키텍처를 갖춘 조직은 많지 않다. 대신 일관된 데이터 표준에 따라 관리되지 않는 사일로형 데이터가 여전히 존재한다. 이는 전사적 인공지능 배포를 지원하기보다는 특정 시점의 의사결정을 제공하기 위해 애플리케이션 단위로 IT 환경을 구축해 온 기존 엔터프라이즈 데이터 전략의 결과다.
IBM이 2025년에 발표한 연구 보고서 ‘AI 야망은 커지고 있지만, 기업 데이터는 준비됐는가?’는 많은 조직이 데이터 문제로 어려움을 겪고 있음을 보여준다. 이 조사에 따르면 전 세계 1,700명의 CDO 가운데, 데이터가 새로운 AI 기반 수익원을 지원할 수 있다고 확신한 응답자는 26%에 그쳤다.
러블리는 해법으로 데이터가 생성되는 위치와 관계없이 동일한 표준과 거버넌스, 메타데이터를 적용하는 통합 전사 데이터 아키텍처가 필요하다고 설명했다.
데이터 전략을 업데이트해야 한다는 인식은 러블리만의 견해가 아니다.
IDC 글로벌 데이터스피어 및 글로벌 스토리지스피어 연구 프로그램의 연구 매니저이자 2025년 보고서 ‘생성형 AI 시대의 콘텐츠 생성’ 공동 저자인 애덤 라이트는 “AI는 데이터의 활용 방식뿐 아니라 활용 목적과 가치가 창출되는 지점까지 바꾸고 있다”라며 “대부분의 조직은 이러한 변화에 맞춰 데이터 전략을 현대화할 필요가 있다”라고 분석했다.
라이트는 “기존 데이터 전략은 보고, BI, 자동화를 위해 설계됐지만, AI는 반복적이고 모델 중심적인 워크플로를 구동할 수 있는 훨씬 더 역동적이고 세분화된 실시간 데이터 파이프라인을 요구한다”라며 “이는 정적인 데이터 거버넌스에서 벗어나 지속적인 데이터 품질 모니터링, 강화된 메타데이터와 계보 추적, 그리고 일시적·캐시·저장 데이터가 혼재된 AI 특성을 반영한 보존 정책으로의 전환을 의미한다”라고 설명했다.
이어 그는 “AI 시대에는 모든 데이터를 수집하고 저장하려는 사고방식에서 벗어나, 비용과 위험, 그리고 달성하려는 구체적인 AI 성과를 균형 있게 고려하는 목적 지향적 데이터 전략으로 진화해야 한다”라고 덧붙였다.
성숙도가 높은 데이터 기반
대부분의 조직은 아직 이러한 목표와 거리가 멀다. IDC의 애덤 라이트는 “많은 조직이 AI 활용 사례를 지원하는 데 필요한 ‘적절한’ 데이터를 확보하는 데 여전히 어려움을 겪고 있다”라며 “이는 데이터의 충분한 양, 적절한 품질, 또는 필요한 맥락 메타데이터 중 어느 하나라도 부족한 경우를 포함한다”라고 설명했다.
그는 이어 “IDC 연구와 업계 논의를 보면 데이터 준비도는 AI 가치를 실현하는 데 가장 큰 장애 요인 중 하나로 꾸준히 지목되며, 종종 컴퓨팅 비용이나 모델 선택보다 더 큰 문제로 인식된다”라고 말했다. 또한 “대부분의 기업은 여전히 분절된 시스템과 일관성 없는 거버넌스, 그리고 실제로 어떤 데이터를 보유하고 있으며 그 데이터가 얼마나 신뢰할 수 있는지에 대한 제한적인 가시성 문제를 안고 있다”라고 분석했다.
러블리는 IBM 역시 과거에는 이러한 문제를 다수 겪었지만, 지난 3년간 데이터를 AI에 적합한 상태로 만들기 위해 이를 해결하는 데 집중해 왔다고 설명했다.
AI 시대를 겨냥한 IBM의 데이터 전략은 오랜 기간 유지해 온 기존 접근 방식에 대한 여러 변화를 포함하고 있으며, 이를 통해 러블리가 말하는 통합 전사 데이터 아키텍처를 구축할 수 있었다. 예를 들어 IBM은 데이터 오너라는 개념을 유지하면서도, 해당 데이터가 특정 조직이 아닌 IBM 전체의 자산이라는 점을 이해하도록 했다. 러블리는 “데이터를 통제되고 안전한 방식으로 민주화할 수 있다면, 비즈니스를 더 효율적이고 생산적으로 운영할 수 있다”라고 설명했다.
그 결과 IBM은 여러 팀이 사일로 형태로 데이터를 관리하던 구조에서 벗어나, 공통 표준과 공통 아키텍처를 사용하는 단일 조직 체계로 전환했다. 또한 전사 리더는 300테라바이트 규모의 데이터를 통합하고, 회사가 추구하는 성과와 이를 이끄는 워크플로를 기준으로 필요한 데이터를 선별했다.
러블리는 “의도적으로 접근했다”라고 설명하며, 현재 IBM의 데이터 플랫폼이 전체 워크플로의 약 80%를 포괄하고 있다고 밝혔다. 그는 이어 “오늘날 기업에서 가장 큰 생산성 향상 요인 가운데 하나는 통합 전사 데이터 아키텍처를 구축하는 것”이라며 “데이터에 대한 투자가 있었기에 IBM은 AI를 전사적으로 빠르게 도입할 수 있었다”라고 말했다.
더 나은 데이터 전략을 구축하기 위한 8가지 제언
데이터 기반과 데이터 활용 역량에서 높은 성숙도를 달성하려면, 조직은 AI 시대에 맞는 데이터 전략이 필요하다. 이는 데이터 품질을 강화하고 데이터 사일로를 해소하며, 비즈니스가 우선순위로 삼은 AI 활용 사례에 데이터 역량을 정렬하는 전략이다.
업계 전문가는 다음과 같은 실행 단계를 제시한다.
1. 데이터 소유 개념을 재정의하라
IDC의 라이트는 “데이터 소유를 순수한 IT 문제로만 다루는 전통적 모델은 더 이상 유효하지 않다”라며 “사업부, 제품 조직, AI 플랫폼이 지속적으로 데이터를 생성하고 변환하는 환경에서는 이러한 접근이 작동하지 않는다”라고 설명했다. 그는 “이상적으로는 CDO와 같은 고위 데이터 리더가 명확한 책임을 져야 하지만, CDO가 없는 조직이라면 IT, 보안, 사업 부문 전반에 걸쳐 데이터 거버넌스 책임을 명확하게 분산해야 한다”라고 말했다.
또한 그는 “정책을 정의하는 단일한 권한 창구와 실행을 담당하는 연합형 모델을 함께 갖추는 것이 중요하다”라며 “이를 통해 사업부의 자율성은 유지하되, 통제되지 않은 상태는 피할 수 있다”라고 덧붙였다.
세인트토머스대학교 소프트웨어공학·데이터사이언스학과 학과장이자 응용 인공지능 센터 소장인 만짓 레게는 데이터 오너의 역할을 데이터 관리자, 즉 데이터 스튜어드로 재정의할 것을 권고했다. 레게는 이들이 데이터를 소유하는 존재가 아니라, 중앙 데이터 조직이 정한 표준과 거버넌스, 보안, 상호운용성을 기반으로 데이터의 의미와 품질을 책임지는 역할을 맡아야 한다고 설명했다.
2. 데이터 사일로를 해소하라
이를 위해 라이트는 “생성형 AI는 워크플로와 프로세스, 데이터 소스가 전사적으로 연결될 때에만 가치를 창출하기 때문에, CIO는 공통의 AI 및 데이터 성과를 중심으로 사업 부문을 정렬해야 한다”라고 설명했다.
그는 이어 “이를 위해서는 크로스펑셔널 거버넌스를 구축하고, 분류 체계와 정책을 표준화하며, 데이터를 보호하기보다 공유하도록 유도하는 인센티브를 마련해야 한다”라고 말했다. 또한 “통합 플랫폼, 메타데이터 계층, 공통 보안 프레임워크 같은 기술도 도움이 되지만, 진정한 전환을 이끄는 요소는 C레벨과 주요 비즈니스 이해관계자 전반에 걸친 조율된 리더십”이라고 설명했다.
3. AI 시대를 위한 데이터 기술에 투자하라
라이트는 AI 시대에 필요한 데이터 기술로 현대적인 데이터 레이크와 데이터 레이크하우스, 벡터 데이터베이스, 확장형 오브젝트 스토리지를 꼽았다. 그는 이러한 기술이 “강력한 거버넌스를 유지하면서도 대용량의 멀티모달 데이터를 처리할 수 있다”라고 설명했다.
또한 조직은 AI 워크플로가 처음부터 끝까지 안정적으로 작동하도록 데이터 수집, 정제, 변환, 이동을 자동화하는 오케스트레이션 및 파이프라인 도구를 갖춰야 한다. 모델이 데이터의 맥락을 이해하고 계보를 추적하며 구조화 데이터와 비구조화 데이터를 안전하고 신뢰성 있게 활용하려면 메타데이터 엔진과 거버넌스 계층 역시 필수적이다.
만짓 레게는 “모듈형이며 거버넌스가 적용되고, 지속적으로 진화할 수 있는 데이터 플랫폼 계층을 구축해야 한다”라고 조언했다. 그는 “데이터를 단일 파이프라인을 위한 자원이 아니라 재사용 가능한 제품으로 다룰 수 있어야 하며, 배치 처리와 실시간 요구를 모두 지원할 수 있는 아키텍처가 필요하다”라고 설명했다.
레게는 데이터 레이크와 데이터 레이크하우스에 대해서도 긍정적인 평가를 내렸다. 그는 이들 기술이 구조화 데이터와 비구조화 데이터를 모두 처리할 수 있어 “AI의 핵심 기반으로 자리 잡고 있다”라고 말했다.
또한 쏘트웍스의 최고 AI·데이터 책임자인 샤얀 모한티는 CIO에게 모듈형 기술과 유연한 구조를 갖춘 컴포저블 엔터프라이즈를 구축할 것을 권고했다. 이를 통해 사람과 AI가 여러 계층에 걸쳐 데이터에 접근하고 협업할 수 있다는 설명이다.
전문가들은 데이터 라이프사이클의 변화에 대응하는 기술 투자도 중요하다고 조언한다.
라이트는 “생성형 AI는 데이터 라이프사이클을 근본적으로 재편하고 있으며, 일시적 데이터, 캐시 데이터, 영구 저장 데이터가 훨씬 더 역동적으로 혼재되는 환경을 만들고 있다”라고 설명했다. 그는 “대부분의 생성형 AI 결과물은 수 초에서 수 분, 길어야 수 시간만 사용되기 때문에, 빠른 반복과 캐싱, 변동성이 큰 워크플로를 처리할 수 있는 DRAM과 SSD 같은 고성능 인프라에 대한 수요가 커지고 있다”라고 말했다.
반면 그는 “최종 문서, 승인된 미디어 자산, 합성 학습 데이터, 규제 대응과 관련된 콘텐츠 등 일부 생성형 AI 결과물은 장기간 보존된다”라며 “이러한 데이터는 여전히 비용 효율적이면서 대용량을 제공하는 HDD 기반 스토리지에 크게 의존하고 있다”라고 설명했다. 이어 “생성형 AI 도입이 확대될수록, 초고속 메모리를 활용한 일시적 콘텐츠 처리부터 HDD 기반의 견고한 아카이브까지 전 주기를 포괄하는 데이터 전략이 필요해질 것”이라며 “스토리지 부담과 구조 자체가 변화하고 있기 때문”이라고 분석했다.
4. 데이터 아키텍처에 자동화와 지능 요소를 더하라
모한티는 기업 데이터 환경이 열악한 원인으로 데이터 생산자와 데이터 소비자 간의 단절을 지목했다. 그는 생성된 데이터가 이른바 데이터 웨어하우스라는 “어딘가의 거대한 더미”에 쌓인 뒤, 이를 활용하기 위해 별도의 분석 계층을 덧붙이는 방식이 일반적이라고 설명했다. 이러한 접근은 실제로 작동하게 만들기 위해 많은 인적 지식과 수작업을 필요로 한다는 지적이다.
이에 따라 모한티는 데이터 생산자와 데이터 소비자의 거리를 좁히기 위해 데이터 제품 관점을 도입하고, 필요할 때 AI가 적절한 데이터를 식별하고 접근할 수 있도록 전사 아키텍처에 자동화와 지능을 추가해야 한다고 조언했다.
그는 CIO가 모델 컨텍스트 프로토콜(MCP)을 활용해 데이터를 감싸고, 프로토콜 수준의 접근 방식을 제공할 수 있다고 설명했다. 다만 이를 위해서는 데이터의 발견 가능성을 보장할 수 있도록, 조직이 데이터 카탈로그와 도구 전반에 걸쳐 관련 정보를 체계적으로 인코딩해야 한다고 덧붙였다.
5. 구조화·비구조화 데이터를 AI에 맞게 준비하라
라이트는 “구조화 데이터는 일관된 형식으로 정리되고, 적절한 거버넌스가 적용되며, 정확한 메타데이터로 보강될 때 AI에 적합한 상태가 된다”라며 “이 경우 모델이 데이터를 이해하고 활용하기가 훨씬 쉬워진다”라고 설명했다. 그는 “조직은 강력한 데이터 품질 관리와 마스터 데이터 관리, 명확한 책임 체계를 우선적으로 구축해 구조화 데이터셋이 신뢰성과 상호운용성을 유지하고, 특정 AI 활용 사례에 맞게 정렬되도록 해야 한다”라고 말했다.
전문가들은 이러한 규율을 비구조화 데이터에도 동일하게 적용해야 한다고 강조한다. 비구조화 데이터 역시 적절한 태깅과 분류, 메타데이터 보강을 통해 AI 시스템이 효과적으로 이해하고 검색할 수 있도록 준비돼야 한다는 설명이다.
만짓 레게는 “비구조화 데이터를 일급 데이터 자산으로 다뤄야 한다”라며 “고객 서비스 음성 통화, 메시지, 문서와 같은 비구조화 데이터에 가장 흥미로운 AI 활용 사례가 존재하지만, 많은 조직에서 여전히 비구조화 데이터는 사각지대로 남아 있다”라고 지적했다.
레게는 이러한 비구조화 데이터를 검색 가능한 형태로 활용하기 위해 벡터 데이터베이스에 저장할 것을 권고했다.
6. 외부 데이터 소스와 합성 데이터 활용을 검토하라
라이트는 “기존 데이터가 불완전하거나 편향돼 있거나, 규모가 부족하거나, 추진하려는 AI 활용 사례와 충분히 맞지 않는 경우에는 외부 데이터나 합성 데이터가 필요한지 반드시 검토해야 한다”라고 말했다. 그는 “합성 데이터는 실제 데이터가 민감하거나 수집 비용이 높고, 개인정보 보호나 규제, 운영상의 제약으로 활용이 제한될 때 특히 유용하다”라고 설명했다.
7. 고성숙도 데이터 기반을 단계적으로 구축하라
세일즈포스의 전사 IT 전략 담당 수석부사장인 시바니 아후자는 데이터가 완벽하게 정비될 때까지 기다리지 말라고 조언했다.
아후자는 “모든 데이터를 완벽하게 준비한 뒤에야 본격적으로 시작할 수 있다고 느끼는 조직이 있지만, 동시에 AI 여정을 시작하라는 압박도 받고 있다”라고 설명했다.
그는 대부분의 전사 프로그램이 성숙해 가는 과정과 마찬가지로, AI 시대를 위한 데이터 프로그램 역시 점진적인 접근이 필요하다고 강조했다. CIO와 경영진은 단계적으로 데이터 프로그램을 구축할 수 있고, 또 그렇게 해야 한다는 것이다.
아후자는 하나의 AI 기반 성과를 지원하는 데이터 전략과 아키텍처를 먼저 구축한 뒤, 이를 바탕으로 다음 성과로 확장해 나가는 방식으로 데이터 프로그램을 고도화할 것을 권고했다.
그는 “필요한 결과에서 거꾸로 설계하는 사고방식”이라며 “운영 환경에 배포하고, 적절한 가드레일을 갖췄는지 확인한 뒤 이를 관찰하고 조정해 확장성을 확보한 다음, 다음 단계를 진행하면 된다”라고 설명했다.
8. 데이터 조직을 전사 협업 구조로 구축하라
라이트는 “데이터는 IT, 데이터 거버넌스, 보안, 그리고 실제로 데이터를 활용해 의사결정을 내리는 사업 부문을 모두 아우르는 크로스펑셔널 생태계의 지원을 받아야 한다”라고 설명했다.
그는 “AI 시대의 데이터 전략은 이들 조직이 공동으로 책임을 나눌 때 가장 효과적으로 작동한다”라며 “IT 조직은 인프라를 뒷받침하고, 거버넌스 조직은 신뢰성과 품질을 보장하며, 사업 조직은 데이터의 맥락과 가치를 정의하는 역할을 맡아야 한다”라고 말했다. dl-ciokorea@foundryco.com
Google’s AI research division, in collaboration with researchers from New York University and UC Santa Barbara, has launched a new tool and framework that they claim can rein in agent behavior by placing explicit limits on how much compute agents can consume and how freely they can invoke tools.
The tool, called Budget Tracker, is a plug-in module that injects continuous budget awareness into an agent’s reasoning loop, explicitly signaling how much token and tool-call budget remains so the agent can condition its actions on real-time resource availability, the researchers explained in a paper.
How autonomous agents choose to think, loop, and act when completing a task or user request is quietly inflating enterprise AI budgets, which is increasingly turning into a CIO nightmare.
A research report from IDC cited 92% of 318 decision makers surveyed in the US, UK, and Ireland saying that the cost of their deployed AI agents was higher than expected, with inference being the most common cause.
Another report — Greyhound CIO Pulse 2025 — found that 68% of digital leaders surveyed said that they hit major budget overruns during their first few deployments of agents, and nearly half of these leaders pointed to runaway tool loops and recursive logic being the driver behind the overruns.
That budget signal doesn’t stop at individual agents. Google researchers have also launched a framework, named Budget Aware Test-time Scaling (BATS), that builds on the tracker-driven awareness in an agent and tries to adapt the same to a larger multi-agent system.
This enables large, multi-agent systems to determine when it’s worth “digging deeper” into a promising line of reasoning versus when to pivot to alternative paths, thereby improving cost-performance trade-offs under tight budget constraints, the researchers wrote.
Practical path to TCO for agentic AI
Analysts say the tool and framework could offer CIOs a practical path to understand and control costs around agentic deployments.
“The tool and the framework address one of the most pressing questions facing CFOs and CIOs: the true total cost of ownership (TCO) for agentic AI operations. And for enterprise adoption of any technology, TCO is very important,” said Pareekh Jain, principal analyst at Pareekh Consulting.
“Most CIOs would rather accept a predictable agentic system that delivers 90% accuracy at a capped cost than a higher-accuracy system whose per-run cost can vary wildly from a few cents to several dollars,” Jain added.
Seconding Jain, IT management consulting firm Avasant’s research director, Gaurav Dewan, pointed out that many enterprises deploy agents under the assumption that inference is “cheap enough” at scale.
In practice, however, Dewan said, costs grow non-linearly as agents are often deployed without hard budget caps, execution limits, or reasoning constraints.
He further noted that spending is amplified in multi-agent architectures as agents delegate tasks to other agents.
The tool and the framework mark a “big shift” from approaches that similar tools take, according to Greyhound Research Chief Analyst Sanchit Vir Gogia.
“Right now, the tooling landscape is a mess. Plenty of platforms say they optimize agent efficiency, but few actually engage with the problem at runtime. Most solutions in the market operate on a delay; they aggregate usage data, send reports, or shut things down when it’s already too late. That’s not cost governance. That’s damage control,” Gogia said.
The analyst was referring to tools such as LangSmith (LangChain) & Helicone, which offer observability by logging how much an agent spent.
In contrast, Google’s Budget Tracker and BATS frameworks introduce budget awareness directly into the decision loop, giving agents real-time feedback about what they have spent, what’s left, and what’s worth doing next, that too without the need to babysit the agent, Gogia said.
In the absence of a framework like BATS, enterprises typically had to cobble together throttling rules, hard-coded prompt tweaks, and caching strategies to control costs around the agentic system, Gogia added.
Caveats to enterprise adoption
Despite the differentiated approach of the new tool and framework, analysts caution that they might not be a silver bullet in tackling cost overruns around agentic deployments on their own.
CIOs, according to Dewan, are likely to favor the tool or framework if Google integrates natively with existing agent frameworks and offers policy-driven controls spread granularly across all agents, workflows, and business units. “What CIOs need is enforcement, observability, and auditability in one place,” Gogia said. “They want to know what the agent spent, why it made that decision, what path it took, and whether it stayed within bounds. Especially in regulated sectors, where tool usage may touch PII or trigger downstream financial systems, audit trails are non-negotiable.”
11월 말 공개된 이번 조사에서는 에이전틱 AI에 대한 투자 확대도 확인됐다. 응답자들은 전체 AI 예산의 약 30%를 에이전틱 AI에 배정하고 있다고 답했으며, 96%는 이미 도입했거나 향후 2년 내 도입할 계획이라고 밝혔다. 특히 고객 서비스 등 고객 접점 영역에서 AI 에이전트 활용이 증가하고 있다는 응답이 많았다.
실제로 CIO의 65%는 에이전틱 AI 도입 이후 고객 서비스 부문과의 협업이 가장 많다고 답했으며, 해당 부문이 활용 사례와 도입 준비 수준 등 주요 지표에서 상대적으로 높은 평가를 받았다. 고객 서비스에 이어 마케팅, 영업, 금융, 인사 부문 순으로 에이전틱 AI의 활용도와 준비 수준이 높게 나타났다.
세일즈포스가 발표한 ‘에이전틱 엔터프라이즈 지수(Agentic Enterprise Index)’에서도 관련 경향이 제시됐다. 조사에 따르면 소비자의 94%는 상담원보다 AI 에이전트를 선호한다고 응답했으며, 2025년 상반기 AI 에이전트를 통한 고객 상담 건수는 평균적으로 증가한 것으로 나타났다.
에이전틱 AI 확산과 함께 CIO의 역할 변화도 관찰됐다. CIO가 가장 자주 협업하는 임원으로 CEO가 꼽혔으며, 경영 의사결정 과정에서 CIO의 참여 범위가 확대되고 있는 것으로 조사됐다. 이에 따라 CIO의 역할은 기술 운영 중심에서 비즈니스 전략과 연계된 방향으로 이동하는 양상을 보였다.
Salesforce
기술적 우선순위 역시 변화하고 있다. 데이터 정리, 거버넌스, 보안과 같은 기존 과제에 더해 AI 기반 워크플로 구축, 핵심 플랫폼 통합, 조직 차원의 AI 활용 확대가 주요 과제로 언급됐다. CIO의 93%는 AI 에이전트 도입 효과가 기존 업무 흐름과의 연계 수준에 달려 있다고 응답했다.
AI 활용 과정에서 가장 큰 과제로는 데이터 신뢰 문제가 지적됐다. 응답자들은 데이터 보안과 개인정보 보호를 주요 우려 요소로 꼽았으며, 신뢰할 수 있는 데이터 확보의 어려움도 함께 언급했다. 에이전틱 AI 도입을 위해 최고데이터책임자(CDO)와 긴밀히 협업하고 있다고 답한 비율은 35%였고, IT 예산 중 데이터 보안에 배정된 비중은 14%로 나타났다. 데이터 거버넌스가 충분히 구축돼 있다고 응답한 비율은 23%에 그쳤다.
한편 AI 활용이 늘어나면서 부서 간 협업 필요성도 커지고 있는 것으로 나타났다. 응답자의 81%는 AI 도입 이후 HR, 재무, 영업 등 타 부서와의 협업 중요성이 높아졌다고 답했으나, 실제 협업 수준이 충분하다고 평가한 비율은 절반에 못 미쳤다.
세일즈포스의 CIO 다니엘 슈미트는 “조직 내에서 에이전틱 AI가 단계적으로 적용되고 있다”라며 “업무 흐름과의 연계와 데이터 신뢰 확보가 핵심 과제로 인식되고 있다”라고 말했다.
한편 세일즈포스는 기업의 AI 활용과 데이터 통합을 지원하기 위해 에이전트포스 360(Agentforce 360)과 데이터 360 등을 제공하고 있다. jihyun.lee@foundryco.com
AI 분야에서 잡음을 가려내기가 점점 더 어려워지고 있다. 매일 새로운 벤치마크가 등장하고, 새 ‘최첨단’ 모델이 발표되며, 어제의 아키텍처가 이미 구식이 됐다는 주장도 끊임없이 나온다. 특히 대기업에서 첫 AI 애플리케이션을 구축해야 하는 개발자라면, 쏟아지는 발표의 양 자체가 판단을 마비시킬 수 있다.
이때 순위는 큰 도움이 되지 않는다. 변화 속도가 너무 빠르기 때문이다. 불과 지난주만 해도 미스트랄(Mistral)의 새로운 모델이 공개됐고, 구글은 대규모 업데이트를 발표했으며, GPT-4o를 코딩 벤치마크에서 앞선다고 주장하는 오픈웨이트 모델도 등장했다. 이런 상황에서 무엇을 해야 할까? 오늘의 모델을 기준으로 개발을 시작했다가 배포하기도 전에 구식이 되는 것은 아닐까? 더 근본적으로는, 계획하고 추론하며 복잡한 워크플로우를 실행하는 완전 자율형 에이전트 시스템을 아직 만들고 있지 않다면 이미 크게 뒤처진 것은 아닐까 하는 걱정도 생길 수 있다.
그런 생각은 멈춰도 된다. 실제로 뒤처진 것이 아니다.
엔터프라이즈 AI의 현실은 매주 발표되는 챗봇 성능 경쟁의 결과와는 큰 관련이 없다. 핵심은 화려하지도 않고 주목받지도 않는 데이터 엔지니어링, 거버넌스, 통합 작업에 있다. 이제 AI를 만능 해결책처럼 바라보던 시기를 지나 산업화 단계로 들어서고 있다. 과제는 가장 똑똑한 모델을 고르는 것이 아니라, 실제 세계의 온갖 비합리성과 복잡성을 견뎌낼 수 있는 시스템을 구축하는 것이다.
개발자가 첫 번째 AI 애플리케이션을 만들 때 참고할 만한 몇 가지 접근법을 소개한다.
빠지기 쉬운 함정
AI 개발과 관련해서는 이른바 ‘순위표의 환상’에 휘말리기 쉽다. 수학 벤치마크에서 1% 더 높은 점수를 받은 모델을 보고, 그것이 유일한 선택지라고 단정하는 식이다. 프로그래머이자 작가인 사이먼 윌리슨은 이를 ‘느낌 기반 평가(vibes-based evaluation)’라고 표현했다. 가벼운 대화에서 어떤 챗봇이 더 ‘똑똑해 보이는지’를 판단하는 데는 어느 정도 참고가 될 수 있지만, 실제 운영 환경의 워크로드를 평가하는 기준으로는 적절하지 않다. 이제는 1990년대 소프트웨어 경쟁처럼 하나의 플랫폼이 모든 것을 차지한다는 관점에서 AI를 바라보는 태도에서 벗어날 필요가 있다.
모델 가중치는 점점 차별성이 사라지는 방향으로 가고 있다. 모두에게 필요하지만 누구도 직접 관리하고 싶어 하지 않는, 일종의 기반 인프라에 가까워지고 있다는 의미다. 앤트로픽이나 오픈AI를 사용하든, 라마(Llama)와 같은 오픈소스 모델을 선택하든, 기업 업무의 약 90%를 처리하기에 충분한 수준의 지능을 확보할 수 있다. 첫 번째 AI를 개발하는 데 체감되는 차이는 크지 않다. 결국 ‘가장 좋은’ 모델이란 성능 순위표에서 앞선 모델이 아니라, 보안과 안정성을 갖추고 실제로 사용할 수 있는 모델인 경우가 많다.
AI 분야의 여러 사이클을 누구보다 많이 경험한 스탠퍼드대 교수 앤드루 응은 최근 비교적 단순하지만 핵심을 찌르는 조언을 내놓았다. 그는 “가치 있는 무언가를 만드는 데 훨씬 더 집중해야 한다”라고 말했다. 당연하게 들리지만, 실제 현장에서는 자주 간과되는 조언이다. 응은 진정한 가치가 모델 계층이 아니라 애플리케이션 계층에 있다고 설명했다. 송장을 자동으로 대조하거나 법률 문서를 요약하는 등 실제 비즈니스 문제를 해결하는 도구를 만든다면, 그 파운데이션 모델이 순위표에서 1위인지 3위인지는 결국 큰 의미를 갖지 않는다.
AI의 작동 원리는 전통적인 소프트웨어와 근본적으로 다르다. 오픈소스 세계에서는 코드 자체가 핵심 자산일 수 있지만, AI 환경에서 모델은 일시적인 상품에 가깝다. 진정한 자산은 데이터이며, 그 데이터를 어떻게 모델에 공급하고 활용하느냐에 있다.
데이터베이스처럼 사고하라
모델을 선택한 후에는 곧바로 ‘에이전트’를 만들어야 한다는 유혹에 빠지기 쉽다. 웹을 탐색하고, 데이터베이스를 조회하며, 스스로 판단까지 내리는 AI 에이전트를 설계했다는 공로를 인정받고 싶기 때문이다. 하지만 신중할 필요가 있다. 아직 에이전트를 만들 준비가 되지 않았을 가능성이 크다. 이는 AI가 충분히 똑똑하지 않아서도 아니고, AI 경험이 부족해서도 아니다.
문제의 핵심은 데이터가 충분히 정리돼 있지 않다는 데 있다.
최근 기사에서 언급했듯, AI의 메모리는 본질적으로 데이터베이스 문제다. 에이전트에서 메모리를 제거하면 비용이 매우 높은 난수 생성기에 불과해진다. 에이전트는 사람의 데이터를 기계의 속도로 처리한다. 이 데이터가 구조화돼 있지 않고, 거버넌스가 적용돼 있지 않다면 에이전트는 대규모 환경에서 확신에 찬 오답을 만들어내게 된다.
대부분의 기업은 여전히 데이터가 어디에 존재하는지 파악하는 단계에 머물러 있다. 대규모 언어 모델에 데이터를 어떻게 노출할지까지 고민하는 경우는 더 드물다. AI의 메모리는 흔히 컨텍스트 윈도우라는 개념으로 단순화해 설명되지만, 실제로는 구조화된 저장과 관리가 필요한 데이터베이스에 더 가깝다. 여기에는 스키마 설계, 접근 제어, AI가 허위 사실을 지어내거나 민감한 정보를 잘못된 사용자에게 노출하지 않도록 막는 방화벽 등 트랜잭션 로그에 적용하는 것과 동일한 수준의 엄격함이 필요하다.
첫 번째 AI 시스템을 설계하고 있다면, 출발점은 메모리 계층이어야 한다. AI가 무엇을 알고 있어도 되는지, 그 지식은 어디에 저장되며, 어떤 방식으로 업데이트되는지를 먼저 결정해야 한다. 그 다음에야 프롬프트를 고민할 차례가 뒤따른다. 이때 가장 먼저 고려해야 할 요소는 따로 있다. 바로 추론이다.
추론부터 시작하라
과거에는 모델 학습에 들어가는 막대한 비용에 관심이 쏠렸다. 그러나 엔터프라이즈 환경에서는 이 부분이 크게 중요하지 않다. 현재 AI의 핵심은 추론, 즉 이미 학습된 지식을 실제 애플리케이션에 적용하는 단계에 있다. 다시 말해, 거버넌스가 적용된 기업 데이터를 모델과 결합할 때 AI는 비로소 실질적인 가치를 만들어낸다. 기업에서 AI 활용 역량을 키우는 가장 좋은 출발점은 거창한 에이전트 시스템이 아니라 간단한 검색 증강 생성(RAG) 파이프라인이다.
실무에서 이는 무엇을 의미할까? 인사 정책, 기술 문서, 고객 지원 로그처럼 지루하고 정리가 덜 된 문서 묶음을 하나 정한 뒤, 그 데이터만을 기반으로 사용자가 질문하면 답을 얻을 수 있는 시스템을 만들어보는 것이다. 이 과정은 기업 경쟁력을 높이는 중요한 문제들을 해결하는 데 유용하다. 예를 들면 다음과 같다.
데이터 수집 및 정리: PDF 문서를 어떤 기준으로 나누고 정리해야 모델이 내용을 제대로 이해할 수 있을지 고민한다.
거버넌스: 사용자가 권한이 없는 질문을 했을 때, 모델이 답변하지 않도록 어떻게 통제할 것인지 설계한다.
지연 시간: 응답이 느리다면 아무리 정확해도 실제 현장에서 활용되기 어렵다.
이런 작업은 지루하게 느껴질 수 있다. 하지만 AI 연구자 안드레 카파시는 대규모 언어 모델을 새로운 운영체제의 커널에 비유한 바 있다. 사용자는 커널과 직접 상호작용하지 않으며, 그 위에서 동작하는 애플리케이션을 사용한다. 결국 개발자의 역할은 사용자 인터페이스, 업무 로직, 데이터 연결 구조를 포함한 ‘사용자 영역’을 구축하는 데 있다.
표준화된 개발 경로를 구축하라
플랫폼 엔지니어링 역할을 맡고 있다면, 모든 것을 통제하고 싶다는 생각이 먼저 들 수 있다. 하나의 모델과 하나의 API를 정해두고, 모든 개발자가 이를 따르도록 강제하고 싶어지는 것이다. 그러나 이런 접근은 바람직하지 않다. 플랫폼팀이 이른바 ‘안 된다고만 말하는 조직’이 되어서는 안 된다. 통제 장치를 지나치게 강화하면, 개발자들은 개인 신용카드를 쓰거나 관리되지 않는 외부 API를 활용하는 방식으로 우회하게 된다.
대신 ‘표준화된 경로’를 구축해야 한다. AI 애플리케이션을 올바르게 구축하는 방식이 곧 가장 쉬운 선택이 되도록, 조합 가능한 서비스와 가드레일을 제공하는 전략이다. 예를 들어 vLLM 등 여러 제공자가 지원하는 ‘오픈AI 호환 API’와 같은 인터페이스를 표준으로 삼으면, 이후 성능 순위가 바뀌더라도 백엔드 모델을 유연하게 교체할 수 있다. 당장은 빠르고, 규정을 준수하며, 안정적으로 사용할 수 있는 모델 하나를 선택한 뒤 다음 단계로 나아가면 된다.
목표는 개발자의 속도를 억누르는 것이 아니라 올바른 방향으로 이끄는 것이다. 데이터 거버넌스가 기본적으로 적용된 안전한 실험 환경을 제공해, 큰 위험 없이 다양한 시도를 할 수 있도록 해야 한다.
또한 첫 애플리케이션을 만들 때는 반드시 사람이 개입하는 구조를 염두에 둬야 한다. 전체 과정을 한 번에 자동화하려고 하기보다는, 보고서 초안이나 SQL 쿼리의 1차 결과를 AI가 생성하고, 이를 사람이 검토한 뒤 실행하도록 설계해야 한다. 이는 잘못된 답변이 그대로 사용될 위험을 줄이고, 사람의 판단을 보조하는 도구로 AI를 활용하도록 만든다.
그렇다면 성능 순위를 참조하지 않고도 어떻게 모델이 충분히 괜찮은지 판단할 수 있을까? 추측할 필요는 없다. 직접 테스트하면 된다.
오픈AI와 앤트로픽은 모두 ‘평가 기반 개발’을 강조하지만, 처음부터 복잡한 체계를 도입할 필요는 없다. 모델이 수행하길 원하는 실제 사례 50~100개, 즉 정답이 명확한 질문과 답변 세트만 준비하면 된다. 새로운 모델이 등장해 성능 향상을 내세울 때마다, 이 사례들을 실행해 보면 된다. 현재 사용 중인 모델보다 더 빠르거나 더 저렴하게 문제를 해결한다면 교체하면 되고, 그렇지 않다면 굳이 신경 쓸 필요 없다. 결국 중요한 기준은 외부 리더보드가 아니라, 각 조직이 직접 만든 자체 기준이다.
지루함을 선택하라
요약하자면, 데이터에 집중해야 한다. 거버넌스에 집중해야 한다. 수많은 문서나 반복적인 업무에 파묻혀 있는 회사 내 특정 사용자를 위해, 지루해 보이지만 실제로 필요한 문제 하나를 해결하는 데 집중해야 한다. 성능 순위표는 굳이 신경 쓰지 않아도 된다. 이는 연구자에게 의미가 있는 지표일 뿐이다.
AI 시대의 승자는 거버넌스가 적용된 데이터 위에서 지능을 저렴하고, 쉽게, 안전하게 활용할 수 있도록 만드는 곳이 될 것이다. SNS에서 화제가 되는 결과를 만들지는 못할지 모르지만, 엔터프라이즈 환경에서 실제로 살아남는 애플리케이션을 만드는 데는 분명 도움이 된다. dl-ciokorea@foundryco.com
채용 플랫폼 다이스(Dice)의 ‘2025 기술 채용의 신뢰 격차(The Trust Gap in Tech Hiring 2025)’ 보고서에 따르면, AI는 채용 담당자와 채용 관리자, 구직 중인 기술 전문가의 신뢰 문제를 야기하고 있다. 설문 조사 결과, 기술 전문가의 80%는 전적으로 사람이 주도하는 채용 프로세스를 신뢰한다고 답했으며, AI와 사람이 결합된 하이브리드 방식에 대한 신뢰도는 46%에 그쳤다. 전적으로 AI에 의존하는 채용 과정을 신뢰한다는 응답은 14%에 불과했다. 응답자의 거의 절반(49%)은 선택권이 주어진다면 AI가 주도하는 이력서 선별 과정에서 빠지겠다고 답했다.
응답자들이 꼽은 주요 우려 사항으로는 AI 선별 도구가 지원자의 실제 역량보다 특정 키워드를 우선시할 것이라는 점이 63%로 가장 많았다. 기준이 지나치게 협소해 충분히 자격을 갖춘 지원자가 탈락할 수 있다는 불안도 63%에 달했다. 또 56%는 사람이 자신의 이력서를 아예 보지 않게 될 수 있다는 점을 우려했다.
이 같은 불신은 기술 시장에서 수년간 이어진 정리해고, 경제적 불확실성, AI로 인한 일자리 대체 우려와 겹치면서 더욱 증폭되고 있다. 다이스 보고서에 따르면, 기술 업계 구직이 상대적으로 수월했던 시기와 비교해 현재 지원자들은 채용 과정에서 발생하는 사소한 문제에도 훨씬 쉽게 좌절하는 것으로 나타났다. 그럼에도 불구하고 인사이트 글로벌(Insight Global)의 ‘2025 AI 채용 보고서’에 의하면 관리자 99%가 채용 과정에서 AI를 사용하고 있으며, 98%는 AI를 통해 채용 효율성이 크게 개선됐다고 답했다.
다이스의 대표 폴 판스워스는 “AI는 자신감과 과장의 경계를 흐리는 경향이 있다. 지원자가 AI 채용 시스템의 평가 기준을 넘어서야 한다고 느끼는 순간, 실제 역량과 경험을 과장할 가능성이 증가하게 된다”라고 지적했다.
이로 인해 서류상으로는 그럴듯해 보이지만 실제로는 기업에 적합하지 않은 지원자가 늘어나게 된다고 그는 분석했다. 여기에 AI를 활용해 이력서를 다듬는 지원자가 급증하면서, 검토해야 할 지원서의 양도 함께 증가하고 있다.
판스워스는 “이로 인해 기업은 채용 과정에서 과장된 이력서를 걸러내는 데 더 많은 시간을 소요하고, 적합한 인재를 찾지 못하는 면접에 시간을 허비하게 된다. 시간이 지날수록 이런 과정은 지원자와 기업 양측 모두에서 채용 시스템에 대한 신뢰를 약화시킨다”라고 말했다.
AI가 채용에 활용되는 방식
기술 업계 채용에서 AI는 지원서 응답 분석, 후보자 순위 산정, 커뮤니케이션이나 일정 조율 단계의 자동화에 자주 활용되고 있다. 글로벌 인재 평가 기업 SHL의 최고과학책임자 사라 구티에레즈는 “AI는 채용 담당자가 대량의 지원자를 관리하고 응답 속도를 높이는 데 도움을 주며, 이는 효율성 측면에서 분명한 성과”라고 평가했다.
채용에서 AI의 가장 큰 강점은 일부 절차를 자동화함으로써 채용 담당자와 채용 관리자가 면접에 집중하고 적합한 인재를 가려내는 데 더 많은 시간을 쓸 수 있게 한다는 점이다. 이를 위해 기업은 AI를 어디에 적용하고, 어떤 영역은 사람이 주도할 것인지에 대한 명확한 전략을 마련해야 한다. 채용 과정에서 AI가 사람의 판단을 압도하지 않도록, 활용 방식에 대한 투명성을 유지하는 것도 중요하다.
구티에레즈는 “이력서 표현 방식, 학력 관련 키워드, 과거 직책 등 실제 업무 성과를 직접적으로 드러내지 않는 정보를 기준으로 결정을 내릴 때 채용 판단은 왜곡될 수 있다”라고 지적했다.
판스워스 역시 AI가 지원 절차를 간소화하고 기존에는 놓칠 수 있었던 지원자 간 패턴을 발견하는 데 도움을 주지만, 동시에 잘못된 이유로 우수한 인재를 걸러낼 가능성도 존재한다고 말했다. 그는 “AI 시스템이 키워드나 경직된 템플릿에 지나치게 의존할 경우, 잠재력이 있는 인재를 놓칠 위험이 커진다”라고 경고했다.
그는 “채용 공고 타게팅이나 초기 평가 단계 등 다양한 영역에서 AI 활용이 늘고 있으며, 이는 책임감 있게 사용될 때 분명 도움이 될 수 있다. 궁극적인 목표는 채용팀이 더 나은 신호를 바탕으로 보다 현명한 결정을 내릴 수 있도록 돕는 데 있다”라며, “AI를 문지기처럼 취급하는 것이 아니라 하나의 도구로 활용할 때 비로소 실질적인 가치를 만들어낸다”라고 조언했다.
약화되는 개성
다이스 조사에서 지원자의 78%는 눈에 띄기 위해 자격을 과장할 필요를 느낀다고 답했으며, 65%는 이력서가 검토될 가능성을 높이기 위해 AI로 내용을 수정했다고 답했다. 이는 또 다른 우려를 낳는다. 판스워스는 “경쟁력을 유지하기 위해 과장이 불가피하다고 느끼는 순간, 신뢰는 서서히 무너진다”라고 설명했다.
구티에레즈는 현재 채용 과정이 군비 경쟁과 비슷한 수준에 이르고 있다고 진단했다. 지원자는 채용 알고리즘에 맞춰 이력서를 조정하기 위해 AI를 사용하고, 기업은 이를 다시 AI로 선별하면서, 그 과정에서 발생하는 잡음이 실제 역량과 AI로 다듬어진 표현을 구분하기 어렵게 만든다는 것이다.
지원자가 AI를 활용해 이력서 구조를 다듬을수록, 이력서 내용은 점점 비슷해질 수밖에 없다. 그러면 지원서 더미 속에서 적합한 인재를 찾아내기가 더욱 어려워진다. 판스워스는 AI가 이력서를 깔끔하게 다듬는 데는 도움이 될 수 있지만, 개인의 실제 경험을 온전히 반영하지는 못한다고 지적했다. 그는 “AI 챗봇으로 이력서를 작성하면 최종 결과물에서 개인의 개성과 목소리가 사라질 수 있어 전문성을 유지하기가 쉽지 않다”라며 “이상적인 채용은 가장 기계 친화적인 문장을 쓴 사람이 아니라, 진정으로 조직에 가장 잘 맞는 사람을 찾는 과정이어야 한다”라고 말했다.
구티에레즈는 미래의 채용이 AI와 개성 중 하나를 선택하는 문제가 아니라, 행정적 부담은 AI가 맡고 사람은 관계 형성과 맥락 이해에 집중하는 균형을 찾는 방향이 돼야 한다고 언급했다. 그는 채용 담당자와 채용 관리자, 지원자를 AI가 어떻게 지원할 것인지 명확히 정의한 전략을 수립하는 것이 채용 과정 전반에서 양측의 신뢰를 구축하는 데 중요하다고 강조했다.
AI 투명성에서 출발해야
채용 과정에 AI를 도입할 때는 신뢰 구축과 함께 투명성을 최우선으로 고려해야 한다. 지원자는 AI가 어디에, 어떻게 활용되는지 이해하고, 이를 하나의 보조 도구로 인식하는 것이 중요하다. 이를 위해서는 지원자가 알고리즘에 의해 배제되는 것이 아니라, 사람이 평가하고 있다는 확신을 가질 수 있도록 하는 여러 단계의 장치가 필요하다.
판스워스는 “이 같은 개방성이 지원자의 불안을 완화할 뿐 아니라, 기술이 사람의 공정한 판단을 대체하는 것이 아니라 채용 과정을 보완하기 위해 존재한다는 점을 분명히 해준다”라고 설명했다.
다이스는 기업이 채용 과정에서 AI 활용에 대한 투명성을 높이기 위해 다음과 같은 방안을 고려할 수 있다고 조언했다.
지원서를 사람이 직접 검토한다는 점을 지원자에게 명확히 알린다.
AI가 탈락시킨 지원자에 대해서는 사람이 2차 검토를 진행하고, AI 판단에 대한 정기적인 감사를 실시한다.
채용 담당자의 책임 지표를 설정하고, 의무적인 응답 기한을 마련한다.
AI를 지원자 배제 수단이 아니라 잠재 인재를 식별하는 도구로 활용한다.
지원자에게 업무 적합도 비율을 보여주는 매칭 점수를 도입한다.
AI는 행정 업무에 집중시키고, 사람은 고차원적인 판단에 집중한다.
지원서 접수 여부와 인적 검토 진행 상황, 채용 완료 시점을 지원자에게 명확히 안내한다.
탈락한 지원자에게는 획일적인 자동 응답을 지양하고, 구체적인 피드백을 제공한다.
지원자가 느끼는 불안, 즉 AI가 역량보다 키워드를 우선할 것이라는 우려와 협소한 기준에 맞지 않으면 탈락할 것이라는 두려움, 나아가 사람이 이력서를 아예 보지 않을 것이라는 인식은 결코 가볍게 넘길 문제가 아니다. 다이스 조사에 따르면 채용 과정에 대한 좌절감은 기술 인재의 30%가 업계를 떠날 것을 고민하게 만들었으며, 24%는 현재는 업계에 남아 있지만 점점 불만이 커지고 있다고 답했다.
판스워스는 “이 수치는 분명한 경고 신호”라며 “사람들이 허공에 대고 외치고 있다고 느끼는 순간, 더 이상 머물지 않으려 할 것이다. 기업은 채용 경험이 지원자에게 불투명하게 느껴지지 않도록 해야 한다”라고 강조했다. dl-ciokorea@foundryco.com
지난 몇 년간의 실험 단계를 지나, AI는 이제 일하고, 창작하고, 문제를 해결하는 방식을 바꾸고 협업하며 사람의 전문성을 확장하고 있다. MS는 2026년을 기점으로, AI가 단순한 도구를 넘어 사람의 역량을 확장하는 실질적인 파트너로서 가시적인 변화를 이끌 것으로 전망했다.
MS에 따르면 변화는 산업 전반에서 현실화되고 있다. AI는 의료 분야에서 의료 격차 해소에 기여하고 있으며, 소프트웨어 개발 분야에서는 작업의 맥락까지 이해한다. 양자 컴퓨팅 분야에서는 AI와 슈퍼컴퓨터, 양자를 결합한 하이브리드 접근이 기존에 해결 불가능했던 문제에 대한 돌파구를 예고하고 있다.
AI 에이전트의 고도화에 따라 보안과 인프라의 중요성도 더욱 커지고 있다. MS는 기업이 디지털 동료의 등장에 따른 새로운 위협에 대응하는 한편, 스마트하고 효율적인 AI 인프라 구축에도 속도를 내고 있다고 밝혔다. MS가 선정한 2026년 7대 AI 트렌드는 다음과 같다.
1. 사람의 역량을 확장시키는 AI
AI는 사람의 능력을 단순히 보조하는 수준을 넘어 보다 강력한 협력자로 자리 잡을 전망이다. AI는 질문에 답하고 문제를 추론하던 단계를 지나, 사람과 함께 일하며 성과를 확대하는 방향으로 진화하고 있다. 이는 개인과 소규모 팀이 기존보다 훨씬 큰 규모의 프로젝트를 신속하게 추진할 수 있는 환경을 만드는 변화다.
특히 AI 에이전트는 데이터 분석, 콘텐츠 생성, 개인화 작업 등을 담당하며 디지털 동료의 역할을 수행한다. 예를 들어, 소수 인원으로 구성된 팀도 AI의 지원을 통해 며칠 만에 글로벌 캠페인을 기획·실행할 수 있는 업무 환경이 가능해진다. 이런 변화는 사람이 전략이나 창의성이 필요한 핵심 역할에 집중할 수 있도록 돕고, 조직의 생산성 향상으로 이어질 전망이다.
MS AI 경험 총괄 최고제품책임자 아파르나 체나프라가다는 “AI의 미래는 사람을 대체하는 것이 아니라 사람의 능력을 확장하는 데 있다. AI와 경쟁하기보다는 함께 일하는 법을 익힌 조직이 더 큰 문제를 해결하고 더 빠르게 성과를 만들어낼 것”이라고 강조했다.
2. 보안이 내장된 AI 에이전트의 확산
AI 에이전트의 확산과 함께 보안이 핵심 과제로 떠오르고 있다. 2026년에는 AI 에이전트가 조직 내에서 디지털 팀원처럼 기능하며, 일상 업무와 의사결정을 돕는 데 관여할 것으로 예상된다. 이에 따라, 보안에서부터 각 에이전트의 신뢰성을 확보하는 것이 그 어느 때보다 중요해지고 있다.
각 에이전트에는 명확한 신원을 부여하고, 접근 권한을 제한하며, 에이전트가 생성한 데이터를 관리하고, 에이전트를 외부 위협으로부터 보호하는 체계적인 보안 설계가 요구된다. 보안은 더 이상 마지막에 추가하는 옵션이 아니라, 처음부터 환경 전반에서 상시적, 자율적, 내장형으로 작동해야 한다.
또한 공격자가 AI를 악용하는 방식이 정교해짐에 따라, 조직은 보안 에이전트를 통해 위협을 조기에 탐지하고 신속히 대응하는 보안 체계를 구축하고 있다.
MS 보안 부문 기업 부사장 바수 자칼은 “모든 AI 에이전트는 인간과 유사한 수준의 보안 보호를 갖춰야 하며, 그래야만 통제되지 않은 위험을 지닌 ‘더블 에이전트’로 변하는 것을 막을 수 있다. AI가 업무에서 점점 더 중요한 요소가 되는 지금, 신뢰와 보안은 필수적”이라고 덧붙였다.
3. 의료 격차 해소에 기여하는 AI
AI가 의료 격차 해소의 열쇠로 부상하고 있다. 세계보건기구(WHO)는 2030년까지 약 1,100만 명의 의료 인력이 부족해질 것으로 전망하며, 이로 인해 전 세계 45억 명이 필수 의료 서비스를 받지 못할 수 있다고 경고했다.
MS는 2025년 MS AI의 진단 오케스트레이터(MAI-DxO)가 숙련된 의사의 평균 진단 정확도(20%)를 크게 상회하는 85.5%의 정확도로 복잡한 의료 사례를 해결하는 성과를 냈으며, 코파일럿(Copilot)과 빙(Bing)이 매일 5,000만 건 이상의 건강 관련 문의를 처리하고 있다고 밝혔다.
MS AI 헬스케어 부문 부사장 도미닉 킹은 “AI는 진단을 넘어 증상 분류와 치료 계획까지 영역을 확장하고 있으며, 앞으로 연구 환경을 벗어나 수백만 명의 환자와 소비자가 실제로 사용할 수 있는 생성형 AI 서비스로 발전하게 될 것”이라고 말했다.
4. 과학 연구의 중요한 파트너로 부상하는 AI
AI는 과학 연구 과정에서도 점점 더 중요한 역할을 맡고 있다. AI는 기후 모델링, 분자동역학, 신소재 설계 등의 분야에서 혁신을 앞당기고 있으며, 2026년에는 물리·화학·생물학 연구에서 논문 요약이나 보고서 작성을 넘어, 실제 발견 과정에 적극 참여할 것으로 전망된다.
이러한 변화는 마치 개발자가 AI와 함께 코드를 작성하는 ‘페어 프로그래밍(pair programming)’이나, 일상 업무를 자동화하는 앱을 사용하는 흐름과 맞닿아 있다. MS는 과학 분야에서도 이 같은 협업 방식이 점차 확산될 것으로 내다보고 있다.
MS 리서치 사장 피터 리는 “AI가 가설을 세우고, 과학 실험을 제어하는 도구와 앱을 활용하며, 사람과 AI 연구자 모두와 협업하게 될 것”이라며, “이는 과학 연구의 속도를 가속화하고, 새로운 발견의 방식을 바꾸는 전환점이 될 것”이라고 전망했다.
5. 스마트하고 효율적으로 진화하는 AI 인프라
AI 인프라는 단순한 확장을 넘어 더 스마트하고 효율적인 방향으로 재편되고 있다. 2026년에는 분산된 컴퓨팅 자원을 보다 조밀하게 배치하고, 유연하게 운용하는 차세대 연결형 인프라, 이른바 ‘AI 슈퍼팩토리’가 등장할 전망이다.
MS 애저 최고기술책임자 마크 러시노비치는 이런 변화를 ‘AI 워크로드를 위한 항공 교통 관제 시스템’에 비유했다. 컴퓨팅 자원을 실시간으로 조정하고 분산시켜, 작업이 지연될 경우 즉시 다른 작업이 그 자원을 활용해 낭비 없이 운영되는 구조라는 설명이다.
그는 “AI는 앞으로 규모가 아닌, 얼마나 뛰어난 지능을 만들어내는가로 평가받게 될 것”이라며, “이 같은 전환은 더 낮은 비용과 높은 효율성으로 글로벌 AI 혁신을 뒷받침할 수 있는 더 스마트하고, 지속 가능하며, 유연한 인프라 구축에서부터 시작될 것”이라고 강조했다.
6. 코드의 문맥을 이해하는 AI
AI는 단순한 코드 해석을 넘어 코드 간 관계와 과거 이력까지 이해하는 수준으로 진화하고 있다. ‘리포지토리 인텔리전스(Repository Intelligence)’라 불리는 해당 기술은 코드의 변경 내역과 이유 등 코드 리포지토리의 패턴을 분석해 더 스마트한 제안과 빠른 오류 탐지, 수정 자동화를 돕는다.
MS는 2025년이 소프트웨어 개발 활동이 사상 최고치를 기록한 해였다고 밝혔다. 깃허브(GitHub)에 따르면, 매달 평균 4,320만 건의 풀 리퀘스트(Pull Request)가 병합돼 전년 대비 23% 증가했으며, 코드 변경 내역을 저장한 커밋 수도 10억 건으로 25% 늘었다. 이는 AI가 코드 작성부터 검토, 유지보수 전 과정에 중심적으로 관여하며, 소프트웨어 개발 방식이 빠르게 변화하고 있음을 보여준다.
깃허브 최고제품책임자 마리오 로드리게스는 “2026년은 리포지토리 인텔리전스가 본격적으로 도입되는 전환점이 될 것”이라며, “이 기술은 더 스마트하고 신뢰할 수 있는 AI 개발을 가능하게 하는 구조와 맥락을 제공해, 개발 현장에서 경쟁 우위를 결정짓는 핵심 요소가 될 것”이라고 말했다.
7. 양자 컴퓨팅의 실용화 가능성
양자 컴퓨팅이 기존 컴퓨팅의 한계를 넘어서는 실용화가 수십 년이 아닌 수년 앞으로 다가오고 있다. 특히 AI와 슈퍼컴퓨터, 양자를 결합한 ‘하이브리드 컴퓨팅’이 부상하면서, 각 기술의 강점을 통합한 새로운 연산 방식이 주목받고 있다.
AI는 데이터에서 패턴을 찾고, 슈퍼컴퓨터는 대규모 시뮬레이션을 처리하며, 양자는 분자와 물질 모델링 계산 정확도를 획기적으로 높이는 역할을 수행한다. 여기에 오류를 감지하고 보정할 수 있는 ‘논리 큐비트(logical qubits)’ 기술의 발전이 더해지며, 양자 시스템의 안정성도 향상되고 있다.
MS의 양자 칩 마요라나 1(Majorana 1)은 위상 큐비트(topological qubits)를 기반으로 설계돼 큐비트의 불안정성을 줄이고, 오류를 자동으로 감지·수정할 수 있는 구조를 갖췄다. 이를 통해 하나의 칩에 수백만 개 큐비트를 집적할 수 있는 확장성도 확보했다.
MS 디스커버리 & 퀀텀(Microsoft Discovery & Quantum) 부사장 제이슨 잰더는 “양자 우위는 소재, 의학 등 다양한 분야에서 혁신을 촉발할 것”이라며, “AI와 과학의 미래는 단순히 속도가 빨라지는 것이 아니라, 그 구조와 방식 자체가 근본적으로 재정의될 것”이라고 말했다. dl-ciokorea@foundryco.com
Uno dei compiti fondamentali del CIO è creare valore per l’azienda con un approccio che integra tecnologia e cultura organizzativa. Per farlo, molti si affidano a metodologie codificate, come l’Agile, che aiuta ad allineare l’IT con le strategie di business tramite il DevOps – o alle certificazioni – come la ISO 207001 sulla gestione della sicurezza delle informazioni. Non si tratta, come ha sottolineato Capgemini [in inglese], di prodotti che si comprano e si applicano o di nuove regole da rispettare, ma di una combinazione di strumenti, processi e mentalità innovativa, e nessuno di questi elementi può mancare.
“L’adozione e la certificazione ISO/IEC 27001 hanno rappresentato per Axpo Italia una sfida di governance e di crescita culturale”, conferma Massimiliano Licitra, Chief Information & Operations Officer di Axpo Italia (soluzioni energetiche innovative). “L’abbiamo potuta affrontare con successo grazie a una direzione chiara e a un modello di collaborazione trasversale tra funzioni tecniche, compliance e top management”.
La certificazione ISO/IEC 27001:2022, un caso concreto
La certificazione internazionale ISO/IEC 27001:2022 è una delle più perseguite dai CIO e CISO oggi, perché prepara il terreno a un’efficace implementazione della NIS2.
Dal punto di vista della governance, l’approccio di Axpo Italia si è fondato sulla valutazione dei rischi relativi ai processi critici, sulla definizione di controlli coerenti con lo standard ISO/IEC 27001:2022 e sul monitoraggio continuo tramite KPI e metriche di maturità. Axpo Italia ha anche istituito comitati di sicurezza e rafforzato processi chiave come gestione degli accessi, classificazione delle informazioni, incident management e business continuity, in un lavoro congiunto tra IT, Operation, Servizi Generali, HR, DPO e Local Compliance Manager.
La leva culturale del progetto è stata la formazione, strutturata in moduli differenziati rivolti all’intera popolazione aziendale e ai ruoli tecnici e manageriali più coinvolti, con un focus sulla consapevolezza, le best practice operative e lo sviluppo delle competenze specialistiche.
La funzione ICT & Security di Axpo Italia, guidata da Andrea Fontanini, ha anche cercato il supporto di un consulente esterno (ICT Cyber Consulting), che ha affiancato Axpo Italia in ogni fase, dalla mappatura dei processi alla preparazione per l’audit, assicurando l’integrazione dei controlli di sicurezza lungo l’intero ciclo di vita dei processi operativi e IT.
Waterfall o Agile? Una guida passo dopo passo
Un altro caso emblematico è quello di Ernesto Centrella, Competence Leader metodologie waterfall, test e processi di sviluppo software di Credem Banca e membro comitato scientifico ISTQB (International Software Testing Qualification Board): Centrella è stato posto dalla sua azienda esattamente a capo delle metodologie operative dell’IT e coordina le evoluzioni degli approcci Agile con approcci più tradizionali, a seconda delle esigenze.
“Oggi il mondo tecnologico è molto complesso e bisogna rispondere con velocità alle esigenze normative e di business: per questo le metodologie IT sono centrali”, indica Centrella. “Noi usiamo fondamentalmente due metodologie nel nostro IT, sia per quelli che definiamo progetti sia per l’evoluzione degli applicativi. La prima è una metodologia più di tipo waterfall, l’altra è Agile. Ma non applichiamo mai la metodologia esattamente come prescrivono i manuali – sarebbe impossibile. Le personalizziamo per le nostre esigenze come banca”.
Nella pratica, quando in Credem parte il progetto di un’attività, il team di Centrella effettua per prima cosa un confronto tra le persone che dovranno lavorare a quell’attività per capire qual è la metodologia più opportuna da seguire, utilizzando il framework Cynefin. In questa fase vengono anche definiti tempi e costi e lo staffing del core team.
“In generale, le attività che hanno un impatto sul mainframe vengono svolte in waterfall, mentre quelle che vanno sui canali diretti verso il cliente preferisco farle in Agile”, spiega Centrella. “In questi casi, infatti, il feedback è molto rilevante e, quindi, è importante riuscire a portare il prodotto sul mercato il prima possibile”.
Nella metodologia waterfall il team IT inizia con la qualification, con cui studia il percorso e coinvolge gli stakeholder necessari. Per esempio, se l’applicazione ha dei requisiti di performance, si cerca di capire subito quali test di prestazione andranno condotti e chi li dovrà fare, e così per gli impatti su cybersicurezza, compliance, eccetera.
“Questa attività ha una durata maggiore nel tempo, ma è precisa nel determinare il budget – inteso come effort interno ed esterno – e la pianificazione”, illustra Centrella. “I tempi del processo decisionale sono più lenti, ma più dettagliati, visto che viene svolto, come dice il nome, a cascata”.
Al contrario, nella metodologia Agile non si entra in ogni dettaglio, ma si cerca di capire i macro-impatti su norme, sicurezza, performance e costi, demandando ai singoli sprint la rivisitazione di dettaglio. Il processo decisionale è più veloce e molti aspetti si decidono in fase di delivery.
“Nell’agile non abbiamo tutti i dettagli fin dall’inizio e procediamo per sprint di circa 3 settimane in cui raccogliamo i requirement, ovvero che cosa dobbiamo fare in quelle 3 settimane per gli obiettivi del progetto”, spiega ancora Centrella. “In questo modo le fasi di analisi, test e sviluppo avvengono insieme e le persone si confrontano subito usando una dashboard condivisa in cui riportano e dettagliano le loro attività, che noi chiamiamo user stories. Ognuno ne è responsabile e alla fine dello sprint risolviamo le user stories e sappiamo come andare avanti: per esempio, con un test di prestazione o di sicurezza”.
Centrella sottolinea che, anche nel modello waterfall, viene applicata una personalizzazione in modo da rendere l’IT in qualche misura agile pur nel metodo di lavoro più tradizionale.
“Nel waterfall si prendono tutte le analisi e i requisiti e si passano agli analisti tecnico-funzionali, poi agli sviluppatori, ai test e alla produzione, in modo sequenziale. Tuttavia, noi tendiamo a trasformare il waterfall in iterativo, perché oggigiorno sarebbe assurdo dare il primo output di progetto dopo anni. Anche nei modi di procedere più tradizionali bisogna acquisire una forma di velocità”, chiarisce Centrella.
Quindi, anche nella metodologia waterfall, l’attività viene suddivisa, il più possibile, in parti più piccole in sé complete. Così è possibile verificare in ogni fase se portare il progetto in produzione. Inoltre, sviluppo e produzione restano allineati, come esige il DevOps.
Il DevOps, l’automazione e l’AI
Le metodologie DevOps sono basate sull’impianto Agile e su una tecnica di sviluppo veloce, dove i test si fanno sempre più in automatico e si arriva al più presto all’utente validatore.
“Finito lo sprint c’è un pacchetto software che si può o no portare in produzione”, illustra Centrella. “Sviluppo e operazioni procedono in parallelo: appena finito lo sviluppo si effettua il test, sempre più con una componente di automazione, così se qualcosa non va procediamo prontamente alla fix; quindi, in funzione della tipologia di sprint e del macro piano iniziale, si decide se andare in produzione, ovvero verso le Operations. Se è il caso, da quel momento le parti Dev e Ops interagiscono e passano alla fase di babysitting”.
Il babysitting è l’ultimo pezzo della catena del metodo di lavoro dell’IT: nell’Agile è all’interno del progetto, mentre nel waterfall è staccato, perché ogni fase è distinta, anche se a livello operativo cambia poco ed in entrambe le metodologie durante il babysitting Dev ed Ops collaborano tra di loro.
In ogni caso, le tecniche di automazione sono fondamentali. L’IT di Credem ha automatizzato tutto il processo di deployment: le attività degli sviluppatori precedenti alla produzione usano catene automatizzate, che sono più efficaci e garantiscono controllo, e non si va in produzione se non vengono superate le fasi di test e di collaudo.
“Abbiamo automatizzato anche le catene dei test di performance – anzi, stiamo lavorando per automatizzare tutto il mondo del test, iniziando a sfruttare l’AI, ad esempio, per definire i testbook, partendo dai casi funzionali o user story”, rivela Centrella. “Oggi l’automatizzazione dei test è molto rivolta al tecnico, quindi a figure come gli sviluppatori, ma, sfruttando le potenzialità dell’AI, vorremmo spostare queste competenze verso gli analisti. Ciò consentirebbe sia di liberare risorse strategiche sia di permettere agli analisti, che conoscono meglio di tutti l’applicazione, di testarla in maniera approfondita ed automatizzata scrivendo e modificando gli script. Al momento siamo in fase di sperimentazione e dobbiamo capire che cosa ci riserva il futuro, anche perché del mondo AI siamo tutti all’inizio e la capacità di cambiamento è veramente altissima”.
La metodologia allinea IT e business
Anche Licitra riferisce che Axpo Italia, sul fronte dello sviluppo applicativo, ha investito in metodologie Agile e pratiche DevOps, con un importante sforzo di coordinamento tra team IT e business. Ed è proprio questa la ragione che rende il CIO sempre più coinvolto in certificazioni e metodologie di gestione.
“Quello del CIO non è più un ruolo prettamente tecnico, ma strategico; il CIO è un leader che contribuisce attivamente alla definizione ed esecuzione della visione aziendale”, afferma Francesco Derossi, CIO di Liquigas (società del gruppo SHV Energy che fornisce GPL e GNL a case, aziende e istituzioni). Non a caso, Liquigas ha inserito il CIO nel Leadership Team: “un riconoscimento per l’intero team”, evidenzia Derossi; “l’IT è un partner affidabile che crea valore tramite la tecnologia”.
Proprio in quanto CIO strategico anche Derossi ha introdotto un’organizzazione Agile che segue un’ottica DevOps. Seguendo questo modello operativo, il team IT di Liquigas è suddiviso in 3 gruppi: “Innovate”, che allinea le iniziative di business con l’IT, “Build”, che gestisce il ciclo di vita delle soluzioni e lo sviluppo, anche tramite i partner, e “Run”, che si occupa di supporto agli utenti con service desk e servizi infrastrutturali. In totale sono circa 20 le persone che riportano alCIO.
“Il mio lavoro consiste nella definizione della strategia digitale partendo dalle ambizioni di business e decidendo di concerto con i responsabili delle altre funzioni”, spiega Derossi. “Ho anche il compito di aiutare a mettere in roadmap le iniziative che aiutano a raggiungere gli obiettivi. Infine, all’interno del board, contribuisco a indirizzare le priorità durante il percorso di esecuzione della strategia”.
La metodologia Agile è fondamentale perché, in corso d’opera, “potrebbe essere necessario introdurre qualche modifica o cambiare l’ordine delle priorità degli obiettivi”, prosegue Derossi, “e un compito essenziale del CIO è anche quello di garantire un’adeguata flessibilità e velocità nell’adattamento a necessità che sono mutate”.
Le metodologie e gli standard più scelti dai CIO
Proprio questo mutamento continuo del mondo IT e delle esigenze del business spinge i CIO a introdurre delle personalizzazioni nelle best practice legate a standard e metodologie. Softec, per esempio, è un’azienda certificata ISO 9001: i flussi di lavoro sono dettati da questi standard ma Softec, e il CTO Alessandro Ghizzardi, li hanno amplificati e migliorati, con ulteriori step e controlli.
“La ISO in generale definisce quello che facciamo. Ma io ho anche personalizzato i flussi per l’onboarding del cliente, che è la nostra area chiave. Questo aiuta a far interagire al meglio marketing, tecnologia, infrastruttura e account clienti”, indica Ghizzardi.
Nella sua esperienza da CIO, Marco Poponesi (oggi in pensione), ha anche utilizzato le varie Standard Operating Procedures che interessavano l’ambito IT e che dovevano necessariamente essere seguite anche per questioni di conformità alla Quality Assurance. In aggiunta, ha suggerito “modelli comportamentali derivati dal buon senso e dalle esperienze passate”, racconta Poponesi.
Altri CIO applicano l’MBO, o Management by Objectives, un approccio gestionale che definisce obiettivi specifici e misurabili per i dipendenti, legando il loro raggiungimento a premi o riconoscimenti o, più in generale, all’aumento delle prestazioni aziendali. Per un CIO questo si traduce nell’allineare gli obiettivi del dipartimento IT con gli obiettivi aziendali più ampi, attraverso un processo di definizione collaborativa degli obiettivi, monitoraggio dei progressi e feedback regolare.
Per altri CIO la bussola è il processo ITIL(IT Infrastructure Library),che fornisce best practices per la gestione IT [in inglese]. ITIL 4 è la versione più recente: anche in questo caso, l’aggiornamento risponde all’evoluzione del contesto IT — cloud, automazione, DevOps — includendo maggiore agilità, flessibilità e innovazione, pur continuando a supportare sistemi e reti legacy. ITIL copre l’intero ciclo di vita dei servizi IT, dalla strategia e progettazione alla transizione e all’operatività. Le aziende riconoscono a questo metodo il beneficio di fornire linee guida utili ad allineare i servizi IT con gli obiettivi di business, il nuovo mantra di ogni CIO.
Anche il Dipartimento IT di Axpo Italia ha allineato progressivamente diversi processi a ITIL. “Abbiamo applicato questo processo soprattutto nelle aree di incident, change e service management, con l’obiettivo di aumentare prevedibilità, standardizzazione e qualità delle attività operative”, racconta Licitra.
La sfida? Armonizzare pratiche eterogenee tra team e sedi. Per affrontarla occorrono “workflow condivisi, metriche comuni e incontri periodici di revisione”, indica il manager.
Ma è un lavoro che paga: la combinazione di standard, metodologie e processi rende le aziende più resilienti, veloci e orientate a una gestione moderna del rischio e dell’innovazione.
오픈텍스트는 최근 AI 데이터 플랫폼 로드맵을 발표했으며, 해당 로드맵에서 지식 검색은 대규모이면서 복잡한 데이터 세트로부터 실행 가능한 인사이트를 도출하도록 지원하는 핵심 요소로 자리 잡았다. 오픈텍스트는 구조화 데이터와 비구조화 데이터를 결합하기 위해 통합된 개방형 데이터 및 AI 프레임워크와 서비스 포트폴리오를 구축했다.
현재 제공 중인 모듈 중 하나인 ‘오픈텍스트 놀리지 디스커버리(OpenText Knowledge Discovery)’는 AI 기반의 확장 가능한 플랫폼으로, 기업이 콘텐츠를 구성하고 분류, 라벨링, 보호할 수 있도록 지원한다. 이를 통해 기업은 보다 깊은 인사이트를 확보하고 다크 데이터를 가시화하며, 개인정보를 보호하고 콘텐츠 메타데이터를 강화할 수 있다. 오픈텍스트는 해당 플랫폼이 기업의 AI 준비도를 크게 향상시키고, 안전하고 규정을 준수하며 정확한 생성형 AI 전략을 수립할 수 있다고 설명했다.
IDC 마켓스케이프는 “여러 저장소 전반에서 실시간으로 확장 가능한 지식 검색이 필요하고, 풍부한 미디어를 포함한 광범위한 파일 형식을 지원해야 하는 기업에서는 오픈텍스트를 고려할 수 있다”라고 평가했다. 또한 “오픈텍스트 놀리지 디스커버리는 거버넌스와 규정 준수가 중요한 엔드투엔드 정보 관리 솔루션을 필요로 하는 고객에게 매력적인 선택지”라고 평가했다.
오픈텍스트는 비구조화된 기업 콘텐츠의 양과 복잡성이 지속적으로 증가함에 따라, 오픈텍스트 놀리지 디스커버리와 같은 지능형 플랫폼이 보안을 유지하며 대규모 AI 전환을 가능하게 하는 데 필수적인 요소가 되고 있다고 봤다. 오픈텍스트에 따르면 이 플랫폼은 메타데이터, 거버넌스 기능 및 AI 기반 인사이트를 활용해 콘텐츠 관리, 아카이빙, 디지털 자산 관리를 강화하며, 연합 검색, 생성형 AI 기반 자연어 분석, 시각화 기능, 비디오 및 오디오 콘텐츠에 대한 심층 분석을 통해 모든 콘텐츠 유형과 소스 전반에 대한 포괄적인 가시성을 제공한다.
미디어 인포 그룹(Media Info Groep)은 오픈텍스트 놀리지 디스커버리를 도입해 문서 2억 5,000만 건의 톤 및 감성 분석을 수행한 바 있다. 이 기업은 통합 처리 계층을 통해 15분마다 3만 5,000건의 검색 요청을 처리했으며, 구조화 데이터와 비구조화 데이터를 아우르는 맥락 기반 인사이트를 확보했다.
오픈텍스트의 공학 담당 수석 부사장인 마이클 사이발라는 “기업이 그 어느 때보다도 더 많은 콘텐츠를 보유하고 있으며, 해당 데이터로부터 도출되는 인사이트에 대한 고객의 기대 수준도 사상 최고치에 달했다”라며, “오픈텍스트 놀리지 디스커버리의 생산성, 이해 및 변환 기능이 콘텐츠를 전략적 자산으로 전환해, 고객이 더 높은 수준의 AI 준비도와 생산성을 달성하도록 돕고, 효과적인 생성형 AI 활용 사례를 위한 안전한 기반을 확장한다”라고 말했다. dl-ciokorea@foundryco.com
CIOs today face unprecedented pressure from board, business and shareholders to mirror big tech success stories. The software industry spends 19% of its revenue on IT, while hospitality spends less than 3%.
In our understanding, this isn’t an anomaly; it’s a fundamental truth that most CIOs are ignoring in their rush to emulate Big Tech playbooks. The result is a systematic misallocation of resources based on a fundamental misunderstanding of how value creation works across industries.
IT spending by industry (Source: Collated across publications – industry & consulting)
Ankur Mittal, Rajnish Kasat
The majority gap: Five out of seven industries spend below the cross-industry average, revealing the danger of benchmark-blind strategies
Context matters: Industries where technology is the product (software) versus where it enables the product (hospitality, real estate) show fundamentally different spending patterns
The gap reveals a critical flaw in enterprise technology strategy, the dangerous assumption that what works for Amazon, Google or Microsoft should work everywhere else. This one-size-fits-all mindset has transformed technology from a strategic asset into an expensive distraction.
Year
IT Spend Growth Rate (A)
Real GDP Growth Rate (B)
Growth Differential (A-B)
2016
-2.9%
3.4%
-6.3%
2017
2.9%
3.8%
-0.9%
2018
5.7%
3.6%
2.1%
2019
2.7%
2.8%
-0.1%
2020
-5.3%
-3.1%
-2.2%
2021
13.9%
6.2%
7.7%
2022
9.8%
3.5%
6.3%
2023
2.2%
3.0%
-0.8%
2024
9.5%
3.2%
6.3%
2025
7.9%
2.8%
5.1%
Table 1 – IT Spend versus Real GDP differential analysis(Source: IT Spend – Gartner, GDP – IMF)
According to Gartner, “global IT spend is projected to reach $5.43 trillion in 2025 (7.9% growth)”. IT spending has consistently outpaced real GDP growth, based on IMF World Economic Outlook data, IMF WEO. Over the past decade, global IT expenditure has grown at an average rate of ~5% annually, compared to ~3% for real GDP — a differential of roughly 2 percentage points per year. While this trend reflects increasing digital maturity and technology adoption, it also highlights the cyclical nature of IT investment. Periods of heightened enthusiasm, such as the post-COVID digital acceleration and the GenAI surge in 2023–24, have historically been followed by corrections, as hype-led spending does not always translate into sustained value.
Moreover, failure rates for IT programs remain significantly higher than those in most engineered sectors and comparable to FMCG and startup environments. Within this, digital and AI-driven initiatives show particularly elevated failure rates. As a result, not all incremental IT spend converts into business value.
Hence, in our experience, the strategic value of IT should be measured by how effectively it addresses industry-specific value creation. Different industries have vastly different technology intensity and value-creation dynamics. In our view, CIOs must therefore resist trend-driven decisions and view IT investment through their industry’s value-creation to sharpen competitive edge. To understand why IT strategies diverge across industries shaped by sectoral realities and maturity differences, we need to examine how business models shape the role of technology.
Business model maze
We have observed that funding business outcomes rather than chasing technology fads is easier said than done. It’s difficult to unravel the maze created by the relentless march of technological hype versus the grounded reality of business. But the role of IT is not universal; its business relevance changes from one industry to another. Let’s explore how this plays out across industries, starting with hospitality, where service economics dominates technology application.
Hospitality
The service equation in the hospitality industry differs from budget to premium, requiring leaders to understand the different roles technology plays.
Budget hospitality: Technology reduces cost, which drives higher margins
Premium hospitality: Technology enables service, but human touch drives value
From our experience, it’s paramount to understand and absorb the above difference, as quick digital check-ins serve efficiency, but when a guest at a luxury hotel encounters a maze of automated systems instead of a personal service, technology defeats its own purpose.
You might ask why; it’s because the business model in the hospitality industry is built on human interaction. The brand promise centers on human connection — a competitive advantage of a luxury hotel such as Taj — something that excessive automation actively undermines.
This contrast becomes even more evident when we examine the real estate industry. A similar misalignment between technology ambition and business fundamentals can lead to identity-driven risk, such as in the case of WeWork.
Real estate
WeWork, a real estate company that convinced itself and investors that it was a technology company. The result, a spectacular collapse when reality met the balance sheet, leading to its identity crisis. The core business remained leasing physical space, but the tech-company narrative drove valuations and strategies completely divorced from operational reality. This, as we all know, led to WeWork’s collapse from a $47 billion valuation to bankruptcy.
Essentially, in real estate, the business model is built on physical assets with long transaction cycles pushing IT to a supporting function. Here, IT is about enabling asset operations and margin preservation rather than reshaping the value proposition. From what we have seen, over-engineering IT in such industries rarely shifts the value needle. In contrast, the high-tech industry represents a case where technology is not just an enabler, it is the business.
High Tech
The technology itself is the product as the business model is built on digital platforms, and technological capabilities determine market leadership. The IT spend, core to the business model, is a strategic weapon for automation and data monetization.
Business model maze
While software companies allocate nearly 19% of their revenue to IT, hospitality firms spend less than 3%. We believe that this 16-point difference isn’t just a statistic; it’s a strategic signal. It underscores why applying the same IT playbook across such divergent industries is not only ineffective but potentially harmful. What works for a software firm may be irrelevant or even harmful for a hospitality brand. These industry-specific examples highlight a deeper leadership challenge: The ability to resist trend-driven decisions and instead anchor technology investment to business truths.
Beyond trends: anchoring technology to business truths
In a world obsessed with digital transformation, CIOs need the strategic discernment to reject initiatives that don’t align with business reality. We have observed that competitive advantage comes from contextual optimization, not universal best practices.
This isn’t about avoiding innovation; it’s about avoiding expensive irrelevance. We have seen that the most successful technology leaders understand that their job is not to implement the latest trends but to rationally analyze and choose to amplify what makes their business unique.
For most industries outside of high-tech, technology enables products and services rather than replacing them. Data supports decision-making rather than becoming a monetizable asset. Market position depends on industry-specific factors. And returns come from operational efficiency and customer satisfaction, not platform effects.
Chasing every new frontier may look bold, but enduring advantage comes from knowing what to adopt, when to adopt and what to ignore. The allure of Big Tech success stories, Amazon’s platform dominance, Google’s data monetization and Apple’s closed ecosystem has created a powerful narrative, but its contextually bound. Their playbook works in digital-native business models but can be ill-fitting for others. Therefore, their model is not universally transferable, and blind replication can be misleading.
We believe, CIOs must resist and instead align IT strategy with their industry’s core value drivers. All of this leads to a simple but powerful truth — context is not a constraint; it’s a competitive advantage.
Conclusion: Context as competitive advantage
The IT spending gap between software and hospitality isn’t a problem to solve — it’s a reality to embrace. Different industries create value in fundamentally different ways, and technology strategies must reflect this truth.
Winning companies use technology to sharpen their competitive edge — deepening what differentiates them, eliminating what constrains them and selectively expanding where technology unlocks genuine new value, all anchored in their core business logic.
Long-term value from emerging technologies comes from grounded application, not blind adoption. In the race to transform, the wisest CIOs will be those who understand that the best technology decisions are often the ones that honour, rather than abandon the fundamental nature of their business. The future belongs not to those who adopt the most tech, but to those who adopt the right tech for the right reasons.
Disclosure: This article reflects author(s) independent insights and perspectives and bears no official endorsement. It does not promote any specific company, product or service.
This article is published as part of the Foundry Expert Contributor Network. Want to join?
The promise of cloud is agility, but the reality of cloud migration often looks more like a high-stakes, one-time project. When faced with sprawling, complex legacy applications — particularly in Java or .NET — the traditional “lift-and-shift” approach is only a halfway measure. It moves the complexity, but doesn’t solve it. The next strategic imperative for the CIO is to transition from periodic, costly overhauls to continuous modernization powered by autonomous agentic AI. This shift transforms migration from a finite, risk-laden project into an always-on optimization engine that continuously grooms your application portfolio, directly addressing complexity and accelerating speed-to-market.
The autonomous engine: Agentic AI for systematic refactoring
Agentic AI systems are fundamentally different from traditional scripts; they are goal-driven and capable of planning, acting and learning. When applied to application modernization, they can operate directly on legacy codebases to prepare them for a cloud-native future.
Intelligent code refactoring
The most significant bottleneck in modernization is refactoring — restructuring existing code without changing its external behavior to improve maintainability, efficiency and cloud-readiness. McKinsey estimates that Generative AI can shave 20–30% off refactoring time and can reduce migration costs by up to 40%. Agentic AI tools leverage large language models (LLMs) to ingest entire repositories, analyze cross-file dependencies and propose or even execute complex refactoring moves, such as breaking a monolith into microservices. For applications running on legacy Java or .NET frameworks, these agents can systematically:
Identify and flag “code smells” (duplicated logic, deeply nested code).
Automatically convert aging APIs to cloud-native or serverless patterns.
Draft and apply migration snippets to move core functions to managed cloud services.
Automated application dependency mapping
Before any refactoring can begin, you need a complete and accurate map of application dependencies, which is nearly impossible to maintain manually in a large enterprise. Agentic AI excels at this through autonomous discovery. Agents analyze runtime telemetry, network traffic and static code to create a real-time, high-fidelity map of the application portfolio. As BCG highlights, applying AI to core platform processes helps to reduce human error and can accelerate business processes by 30% to 50%. In this context, the agent is continuously identifying potential service boundaries, optimizing data flow and recommending the most logical containerization or serverless targets for each component.
Practical use cases for continuous value
This agentic approach delivers tangible business value by automating the most time-consuming and error-prone phases of modernization:
Use Case
AI Agent Action
Business Impact
Dependency mapping
Analyzes legacy code and runtime data to map component-to-component connections and external service calls.
Reduced risk: Eliminates manual discovery errors that cause production outages during cutover.
Intelligent code refactoring
Systematically restructures code for cloud-native consumption (e.g., converting monolithic C# or Java code into microservices).
Cost & speed: Reduces developer toil and cuts transformation timelines by as much as 50%.
Continuous security posture enforcement
The agent autonomously scans for new vulnerabilities (CVEs), identifies affected code components and instantly applies security patches or configuration changes (e.g., updating a policy or library version) across the entire portfolio.
Enhanced resilience: Drastically reduces the “time-to-remediation” from weeks to minutes, proactively preventing security breaches and enforcing a compliant posture 24/7.
Real-time performance tuning
Monitors live workload patterns (e.g., CPU, latency, concurrent users) and automatically adjusts cloud resources (e.g., rightsizing instances, optimizing database indices, adjusting serverless concurrency limits) to prevent performance degradation.
Maximized ROI: Ensures applications are always running with the optimal balance of speed and cost, eliminating waste from over-provisioning and avoiding customer-impacting performance slowdowns.
The transition to an agent-driven modernization model doesn’t seek to remove the human role; rather, it elevates it from manual, repetitive toil to strategic governance. The success of continuous modernization hinges on a robust human-in-the-loop (HITL) framework. This framework mandates that while the agent autonomously identifies optimization opportunities (e.g., a component generating high costs) and formulates a refactoring plan, the deployment is always gated by strict human oversight. The role of the developer shifts to defining the rules, validating the agent’s proposed changes through automated testing and ultimately approving the production deployment incrementally. This governance ensures that the self-optimizing environment remains resilient and adheres to crucial business objectives for performance and compliance.
Transforming the modernization cost model
The agentic approach fundamentally transforms the economic framework for managing IT assets. Traditional “lift-and-shift” and periodic overhauls are viewed as massive, high-stakes capital expenditure (CapEx) projects. By shifting to an autonomous, continuous modernization engine, the financial model transitions to a predictable, utility-like pperational expenditure (OpEx). This means costs are tied directly to the value delivered and consumption efficiency, as the agent continuously grooms the portfolio to optimize for cost. This allows IT to fund modernization as an always-on optimization function, making the management of the cloud estate a sustainable, predictable line item rather than a perpetual budget shock.
Shifting the development paradigm: From coder to orchestrator
The organizational impact of agentic AI is as critical as the technical one. By offloading the constant work of identifying technical debt, tracking dependencies and executing routine refactoring or patching, the agent frees engineers from being primarily coders and maintainers. The human role evolves into the AI orchestrator or System Architect. Developers become responsible for defining the high-level goals, reviewing the agent’s generated plans and code for architectural integrity and focusing their time on innovation, complex feature development and designing the governance framework itself. This strategic shift not only reduces developer burnout and increases overall productivity but is also key to attracting and retaining top-tier engineering talent, positioning IT as a center for strategic design rather than just a maintenance shop.
The pilot mandate: Starting small, scaling quickly
For CIOs facing pressure to demonstrate AI value responsibly, the adoption of agentic modernization must begin with a targeted, low-risk pilot. The objective is to select a high-value application—ideally, a non-critical helper application or an internal-facing microservice that has a quantifiable amount of technical debt and clear performance or cost metrics. The goal of this pilot is to prove the agent’s ability to execute the full modernization loop autonomously: Discovery > Refactoring > Automated Testing > Human Approval > Incremental Deployment. Once key success metrics (such as a 40% reduction in time-to-patch or a 15% improvement in cost efficiency) are validated in this controlled environment, the organization gains the confidence and blueprint needed to scale the agent framework horizontally across the rest of the application portfolio, minimizing enterprise risk.
The strategic mandate: Self-optimizing resilience
By adopting autonomous agents, the operational model shifts from reactive fixes to a resilient, self-optimizing environment. Gartner projects that autonomous AI agents will be one of the fastest transformations in enterprise technology, with a major emphasis on their ability to orchestrate entire workflows across the application migration and modernization lifecycle. These agents are not just tools; they are continuous improvement loops that proactively:
Identify a component that is generating high cloud costs.
Formulate a refactoring plan for optimization (e.g., move to a managed serverless queue).
Execute the refactoring, run automated tests and deploy the change incrementally, all under strict human oversight.
The CIO’s task is to define the strategic goals — cost, performance, resilience — and deploy the agents with the governance and human-in-the-loop controls necessary to allow them to act. This proactive, agent-driven model is the only path to truly continuous modernization, ensuring your cloud estate remains an agile asset, not a perpetual liability
This article is published as part of the Foundry Expert Contributor Network. Want to join?
Pocas instituciones de investigación hay en el mundo con las dimensiones y el calado de la Organización Europea para la Investigación Nuclear, el CERN. Fundado en 1954 por doce países europeos, el Laboratorio Europeo de Física de Partículas Elementales se localiza en el municipio suizo de Meyrin, en el cantón de Ginebra, aunque sus instalaciones se extienden a lo largo de la frontera franco-suiza. Entre ellas está el Gran Colisionador de Hadrones (LHC), el acelerador de partículas más grande del mundo. La colaboración internacional está en la base de su origen: más de 3.500 personas componen su plantilla fija. Una pequeña villa que se expande a 17.000 habitantes cuando se suma el personal científico de alrededor de 950 instituciones de más de 80 países distintos que colabora en proyectos del centro —o que lo hizo en 2024—. En este ecosistema propio, la gestión del riesgo de TI supone un reto a la altura de la institución.
“El principal problema es que estamos gestionando una organización enorme”, explica Stefan Lüders, CISO del CERN. “Somos uno de los institutos de investigación de física de partículas más importantes del planeta. Hacemos cosas sofisticadas e interesantes, lo que nos convierte en blanco de ataques de diferentes comunidades”, resume. Enumera varias de estas potenciales amenazas: script kiddies o hackers con un conocimiento básico, que suponen así y todo un riesgo potencial de seguridad; ransomware o exfiltración de datos; sabotajes al trabajo del CERN; acciones de espionaje y de grupos criminales que intentan infiltrarse a través de ordenadores o dispositivos.
“Aquí es donde entra la gente. Porque tenemos una comunidad de investigadores muy amplia, heterogénea y muy fluctuante. Hay muchos físicos que se unen a la organización cada año. Entran y salen para hacer su doctorado, investigan en el CERN y luego se van”, describe, apuntando al desafío de “cuidar a esta comunidad de usuarios. El otro desafío es el mundo flexible y de rápido desarrollo de las TI”. Añade también la programación —la importación de bibliotecas de código abierto, su seguridad, etc.— y la IA. “Cuanto más sofisticada se vuelve la IA, mayor es la probabilidad de que esas herramientas de seguridad o ataque impulsadas por la IA intenten infiltrarse en la organización”.
Asegurando el CERN
Con esta situación de partida, ¿cómo se asegura una implementación efectiva de las iniciativas en ciberseguridad, que no interrumpan el trabajo científico? “No puedes”, afirma Lüders. “La ciberseguridad es inconveniente. Afrontémoslo”. Lüders lo equipara a cerrar con llave la puerta de casa o utilizar el PIN para sacar dinero del cajero; pueden ser molesto, pero necesario. “Intentamos explicar a nuestra comunidad por qué se necesitan medidas de seguridad”, señala. “Y si adaptamos nuestras medidas de seguridad a nuestro entorno, la gente las adopta. Sí, hace la investigación algo más complicada, pero solo un poco”.
Lüders insiste en el factor del trabajo en investigación. “No somos un banco. No tenemos billones de dólares. No somos una base militar, lo que significa que no debemos proteger a un país. Investigamos, lo que implica adaptar el nivel de seguridad y el de libertad académica para que ambos vayan de la mano. Y esa es una conversación constante con nuestra comunidad de usuarios”. Esta engloba desde el personal científico al de gestión de sistemas de control industrial, el departamento de TI o recursos humanos. “Para afrontar ese reto, es fundamental hablar con la gente. Por eso, insisto, la ciberseguridad es un tema muy sociológico: hablar con la gente, explicarles por qué hacemos esto”. Por ejemplo, no todo el mundo usa de buen grado los sistemas multifactor porque “admitámoslo, son un fastidio. Es mucho más fácil escribir una contraseña e, incluso, ¿quién quiere escribir una contraseña? Solo quieres entrar. Pero para las necesidades de protección, hoy en día tenemos contraseñas y autenticación multifactor. Así que le explicas a la gente qué estás protegiendo. Les decimos por qué es importante proteger su trabajo, al igual que los resultados de la investigación. Y la gran mayoría entiende que se necesita un cierto nivel de seguridad”, asegura. “Pero es un desafío porque aquí conviven muchas culturas diferentes, nacionalidades diferentes, opiniones y pensamientos diferentes, y orígenes diversos. Esto es lo que intentamos adaptar permanentemente”.
Stefan Lüders y Tim Bell, del CERN.
CERN
Se suma a la conversación Tim Bell, líder de la sección de gobernanza, riesgo y cumplimiento de TI del CERN, quien se encarga de la continuidad del negocio y la recuperación ante desastres. Bell introduce el problema del empleo de tecnología propia. “Si eres visitante de una universidad, querrás traer tu portátil y usarlo en el CERN. No podemos permitirnos retirar estos dispositivos electrónicos al llegar a las instalaciones. Sería incompatible con la naturaleza de la organización. Esto implica que debemos ser capaces de implementar medidas de seguridad del tipo BYOD”.
Porque en el núcleo de todo se mantiene siempre el carácter colaborativo del CERN. “Los trabajos académicos, la ciencia abierta, la libertad de investigación, son parte de nuestro centro. La ciberseguridad necesita adaptarse a esto”, constata Lüders. “Tenemos 200.000 dispositivos en nuestra red que son BYOD”. ¿Cómo se aplica entonces la adaptación de la ciberprotección? “Se llama defensa en profundidad”, explica el CISO. “No podemos instalar nada en estos dispositivos finales porque no nos pertenecen, (…) pero tenemos monitorización de red”. De este modo, y aunque no se tenga acceso directo a cada aparato, se advierte cuándo se está realizando algo en contra de las políticas del centro, tanto a nivel de ciberseguridad como de usos no apropiados, como por ejemplo emplear la tecnología que proveen para intereses particulares.
“Es fundamental hablar con la gente. La ciberseguridad es un tema muy sociológico”, reflexiona Lüders
Estas medidas se extienden, además, a sistemas obsoletos, que la organización es capaz de asimilar porque cuentan con una red lo suficientemente resistente como para que, aunque un equipo se vea comprometido, no dañe ningún otro sistema del CERN. El problema de la tecnología heredada se extiende al equipo necesario para los experimentos de física que se realizan en el centro. “Estos están protegidos por redes dedicadas, lo que permite que la protección de la red se active y los proteja contra cualquier tipo de abuso”, explica Lüders. Sobre los dispositivos conectados IoT no diseñados con la ciberseguridad en mente, “un problema para todas las industrias”, Lüders es tajante: “Nunca se conseguirá seguridad en los dispositivos IoT”. Su solución pasa por conectarlos a segmentos de red restringidos donde no se les permite comunicarse con nada más, y luego definir destinos a los que sí comunicarse.
CERN
Marco general
Esto es parte de un reto mayor: alinear la parte de TI y la de OT, de tal forma que se establezca una continuidad en la seguridad en toda la organización. Un reto que pasa por la centralización. “Hoy en día la parte de OT, los sistemas de controles del CERN, están empleando virtualización de TI”, explica Lüders. “La estrategia es reunir a la gente de TI y la de control, de tal modo que la gente de control pueda usar los servicios TI en su beneficio”. Desde el departamento tecnológico se provee con un sistema central con distintas funcionalidades para operaciones, así como por otras áreas de la organización, accesible a través de un único punto de entrada. “Ese es el poder de la centralización”. En este sistema entran, además, nuevas herramientas como las de IA en LLM, en el que tienen en funcionamiento un grupo de trabajo para buscar la mejor manera de emplearlas. “Nos enfrentamos a un gran descubrimiento y, más adelante, lo centralizaremos mediante un servicio central de TI. Y así es como lo hacemos con todas las tecnologías”.
Igual que las materias que investigan en el CERN van evolucionando, así lo hace su marco de gobernanza de TI. Este ha ido siguiendo las novedades del sector, explica Bell, de la mano de auditorías que permiten funcionar según las mejores prácticas. “La parte de la gobernanza está volviéndose más formal. En general, todo estaba bien organizado; solo se trataba de estandarizarlo y desarrollar marcos de políticas a su alrededor”. Pese al establecimiento de estos estándares, el resultado es lo contrario de rígido, explica Bell, quien lo ejemplifica con el caso de una auditoría reciente de ciberseguridad en la que el CERN fue evaluado según uno de los estándares internacionales, lo que sirvió para mejorar el nivel de madurez. “Estamos adoptando una política de gobernanza de TI bastante flexible, aprendiendo de la experiencia de otros en la adopción de estándares del sector”, concluye.