❌

Reading view

There are new articles available, click to refresh the page.

Stop mimicking and start anchoring

The mimicry trap

CIOs today face unprecedented pressure from board, business and shareholders to mirror big tech success stories. The software industry spends 19% of its revenue on IT, while hospitality spends less than 3%.

In our understanding, this isn’t an anomaly; it’s a fundamental truth that most CIOs are ignoring in their rush to emulate Big Tech playbooks. The result is a systematic misallocation of resources based on a fundamental misunderstanding of how value creation works across industries.

Chart: IT spending by industry
IT spending by industry
(Source: Collated across publications – industry & consulting)

Ankur Mittal, Rajnish Kasat

  • The majority gap: Five out of seven industries spend below the cross-industry average, revealing the danger of benchmark-blind strategies
  • Context matters: Industries where technology is the product (software) versus where it enables the product (hospitality, real estate) show fundamentally different spending patterns

The gap reveals a critical flaw in enterprise technology strategy, the dangerous assumption that what works for Amazon, Google or Microsoft should work everywhere else. This one-size-fits-all mindset has transformed technology from a strategic asset into an expensive distraction.

YearIT Spend Growth Rate (A)Real GDP Growth Rate (B)Growth Differential (A-B)
2016-2.9%3.4%-6.3%
20172.9%3.8%-0.9%
20185.7%3.6%2.1%
20192.7%2.8%-0.1%
2020-5.3%-3.1%-2.2%
202113.9%6.2%7.7%
20229.8%3.5%6.3%
20232.2%3.0%-0.8%
20249.5%3.2%6.3%
20257.9%2.8%5.1%

Table 1 – IT Spend versus Real GDP differential analysis (Source: IT Spend – Gartner, GDP – IMF)

According to Gartner, “global IT spend is projected to reach $5.43 trillion in 2025 (7.9% growth)”. IT spending has consistently outpaced real GDP growth, based on IMF World Economic Outlook data, IMF WEO. Over the past decade, global IT expenditure has grown at an average rate of ~5% annually, compared to ~3% for real GDP — a differential of roughly 2 percentage points per year. While this trend reflects increasing digital maturity and technology adoption, it also highlights the cyclical nature of IT investment. Periods of heightened enthusiasm, such as the post-COVID digital acceleration and the GenAI surge in 2023–24, have historically been followed by corrections, as hype-led spending does not always translate into sustained value.

Moreover, failure rates for IT programs remain significantly higher than those in most engineered sectors and comparable to FMCG and startup environments. Within this, digital and AI-driven initiatives show particularly elevated failure rates. As a result, not all incremental IT spend converts into business value.

Hence, in our experience, the strategic value of IT should be measured by how effectively it addresses industry-specific value creation. Different industries have vastly different technology intensity and value-creation dynamics. In our view, CIOs must therefore resist trend-driven decisions and view IT investment through their industry’s value-creation to sharpen competitive edge. To understand why IT strategies diverge across industries shaped by sectoral realities and maturity differences, we need to examine how business models shape the role of technology.

Business model maze

We have observed that funding business outcomes rather than chasing technology fads is easier said than done. It’s difficult to unravel the maze created by the relentless march of technological hype versus the grounded reality of business. But the role of IT is not universal; its business relevance changes from one industry to another. Let’s explore how this plays out across industries, starting with hospitality, where service economics dominates technology application.

Hospitality

The service equation in the hospitality industry differs from budget to premium, requiring leaders to understand the different roles technology plays.

  • Budget hospitality: Technology reduces cost, which drives higher margins
  • Premium hospitality: Technology enables service, but human touch drives value

From our experience, it’s paramount to understand and absorb the above difference, as quick digital check-ins serve efficiency, but when a guest at a luxury hotel encounters a maze of automated systems instead of a personal service, technology defeats its own purpose.

You might ask why; it’s because the business model in the hospitality industry is built on human interaction. The brand promise centers on human connection — a competitive advantage of a luxury hotel such as Taj — something that excessive automation actively undermines.

This contrast becomes even more evident when we examine the real estate industry. A similar misalignment between technology ambition and business fundamentals can lead to identity-driven risk, such as in the case of WeWork.

Real estate

WeWork, a real estate company that convinced itself and investors that it was a technology company. The result, a spectacular collapse when reality met the balance sheet, leading to its identity crisis. The core business remained leasing physical space, but the tech-company narrative drove valuations and strategies completely divorced from operational reality. This, as we all know, led to WeWork’s collapse from a $47 billion valuation to bankruptcy.

Essentially, in real estate, the business model is built on physical assets with long transaction cycles pushing IT to a supporting function. Here, IT is about enabling asset operations and margin preservation rather than reshaping the value proposition. From what we have seen, over-engineering IT in such industries rarely shifts the value needle. In contrast, the high-tech industry represents a case where technology is not just an enabler, it is the business.

High Tech

The technology itself is the product as the business model is built on digital platforms, and technological capabilities determine market leadership. The IT spend, core to the business model, is a strategic weapon for automation and data monetization.

Business model maze

While software companies allocate nearly 19% of their revenue to IT, hospitality firms spend less than 3%. We believe that this 16-point difference isn’t just a statistic; it’s a strategic signal. It underscores why applying the same IT playbook across such divergent industries is not only ineffective but potentially harmful. What works for a software firm may be irrelevant or even harmful for a hospitality brand. These industry-specific examples highlight a deeper leadership challenge: The ability to resist trend-driven decisions and instead anchor technology investment to business truths.

Beyond trends: anchoring technology to business truths

In a world obsessed with digital transformation, CIOs need the strategic discernment to reject initiatives that don’t align with business reality. We have observed that competitive advantage comes from contextual optimization, not universal best practices.

This isn’t about avoiding innovation; it’s about avoiding expensive irrelevance. We have seen that the most successful technology leaders understand that their job is not to implement the latest trends but to rationally analyze and choose to amplify what makes their business unique.

For most industries outside of high-tech, technology enables products and services rather than replacing them. Data supports decision-making rather than becoming a monetizable asset. Market position depends on industry-specific factors. And returns come from operational efficiency and customer satisfaction, not platform effects.

Chasing every new frontier may look bold, but enduring advantage comes from knowing what to adopt, when to adopt and what to ignore. The allure of Big Tech success stories, Amazon’s platform dominance, Google’s data monetization and Apple’s closed ecosystem has created a powerful narrative, but its contextually bound. Their playbook works in digital-native business models but can be ill-fitting for others. Therefore, their model is not universally transferable, and blind replication can be misleading.

We believe, CIOs must resist and instead align IT strategy with their industry’s core value drivers. All of this leads to a simple but powerful truth — context is not a constraint; it’s a competitive advantage.

Conclusion: Context as competitive advantage

The IT spending gap between software and hospitality isn’t a problem to solve — it’s a reality to embrace. Different industries create value in fundamentally different ways, and technology strategies must reflect this truth.

Winning companies use technology to sharpen their competitive edge — deepening what differentiates them, eliminating what constrains them and selectively expanding where technology unlocks genuine new value, all anchored in their core business logic.

Long-term value from emerging technologies comes from grounded application, not blind adoption. In the race to transform, the wisest CIOs will be those who understand that the best technology decisions are often the ones that honour, rather than abandon the fundamental nature of their business. The future belongs not to those who adopt the most tech, but to those who adopt the right tech for the right reasons.

Disclosure: This article reflects author(s) independent insights and perspectives and bears no official endorsement. It does not promote any specific company, product or service.

This article is published as part of the Foundry Expert Contributor Network.
Want to join?

Beyond lift-and-shift: Using agentic AI for continuous cloud modernization

The promise of cloud is agility, but the reality of cloud migration often looks more like a high-stakes, one-time project. When faced with sprawling, complex legacy applications — particularly in Java or .NET — the traditional “lift-and-shift” approach is only a halfway measure. It moves the complexity, but doesn’t solve it. The next strategic imperative for the CIO is to transition from periodic, costly overhauls to continuous modernization powered by autonomous agentic AI. This shift transforms migration from a finite, risk-laden project into an always-on optimization engine that continuously grooms your application portfolio, directly addressing complexity and accelerating speed-to-market.

The autonomous engine: Agentic AI for systematic refactoring 

Agentic AI systems are fundamentally different from traditional scripts; they are goal-driven and capable of planning, acting and learning. When applied to application modernization, they can operate directly on legacy codebases to prepare them for a cloud-native future.

Intelligent code refactoring

The most significant bottleneck in modernization is refactoring — restructuring existing code without changing its external behavior to improve maintainability, efficiency and cloud-readiness. McKinsey estimates that Generative AI can shave 20–30% off refactoring time and can reduce migration costs by up to 40%. Agentic AI tools leverage large language models (LLMs) to ingest entire repositories, analyze cross-file dependencies and propose or even execute complex refactoring moves, such as breaking a monolith into microservices. For applications running on legacy Java or .NET frameworks, these agents can systematically:

  • Identify and flag “code smells” (duplicated logic, deeply nested code).
  • Automatically convert aging APIs to cloud-native or serverless patterns.
  • Draft and apply migration snippets to move core functions to managed cloud services.

Automated application dependency mapping

Before any refactoring can begin, you need a complete and accurate map of application dependencies, which is nearly impossible to maintain manually in a large enterprise. Agentic AI excels at this through autonomous discovery. Agents analyze runtime telemetry, network traffic and static code to create a real-time, high-fidelity map of the application portfolio. As BCG highlights, applying AI to core platform processes helps to reduce human error and can accelerate business processes by 30% to 50%. In this context, the agent is continuously identifying potential service boundaries, optimizing data flow and recommending the most logical containerization or serverless targets for each component.

Practical use cases for continuous value 

This agentic approach delivers tangible business value by automating the most time-consuming and error-prone phases of modernization:

Use CaseAI Agent ActionBusiness Impact
Dependency mappingAnalyzes legacy code and runtime data to map component-to-component connections and external service calls.Reduced risk: Eliminates manual discovery errors that cause production outages during cutover. 
Intelligent code refactoringSystematically restructures code for cloud-native consumption (e.g., converting monolithic C# or Java code into microservices).Cost & speed: Reduces developer toil and cuts transformation timelines by as much as 50%. 
Continuous security posture enforcementThe agent autonomously scans for new vulnerabilities (CVEs), identifies affected code components and instantly applies security patches or configuration changes (e.g., updating a policy or library version) across the entire portfolio.Enhanced resilience: Drastically reduces the “time-to-remediation” from weeks to minutes, proactively preventing security breaches and enforcing a compliant posture 24/7. 
Real-time performance tuningMonitors live workload patterns (e.g., CPU, latency, concurrent users) and automatically adjusts cloud resources (e.g., rightsizing instances, optimizing database indices, adjusting serverless concurrency limits) to prevent performance degradation.Maximized ROI: Ensures applications are always running with the optimal balance of speed and cost, eliminating waste from over-provisioning and avoiding customer-impacting performance slowdowns. 

Integrating human-in-the-loop (HITL) framework governance 

The transition to an agent-driven modernization model doesn’t seek to remove the human role; rather, it elevates it from manual, repetitive toil to strategic governance. The success of continuous modernization hinges on a robust human-in-the-loop (HITL) framework. This framework mandates that while the agent autonomously identifies optimization opportunities (e.g., a component generating high costs) and formulates a refactoring plan, the deployment is always gated by strict human oversight. The role of the developer shifts to defining the rules, validating the agent’s proposed changes through automated testing and ultimately approving the production deployment incrementally. This governance ensures that the self-optimizing environment remains resilient and adheres to crucial business objectives for performance and compliance.

Transforming the modernization cost model 

The agentic approach fundamentally transforms the economic framework for managing IT assets. Traditional “lift-and-shift” and periodic overhauls are viewed as massive, high-stakes capital expenditure (CapEx) projects. By shifting to an autonomous, continuous modernization engine, the financial model transitions to a predictable, utility-like pperational expenditure (OpEx). This means costs are tied directly to the value delivered and consumption efficiency, as the agent continuously grooms the portfolio to optimize for cost. This allows IT to fund modernization as an always-on optimization function, making the management of the cloud estate a sustainable, predictable line item rather than a perpetual budget shock.

Shifting the development paradigm: From coder to orchestrator 

The organizational impact of agentic AI is as critical as the technical one. By offloading the constant work of identifying technical debt, tracking dependencies and executing routine refactoring or patching, the agent frees engineers from being primarily coders and maintainers. The human role evolves into the AI orchestrator or System Architect. Developers become responsible for defining the high-level goals, reviewing the agent’s generated plans and code for architectural integrity and focusing their time on innovation, complex feature development and designing the governance framework itself. This strategic shift not only reduces developer burnout and increases overall productivity but is also key to attracting and retaining top-tier engineering talent, positioning IT as a center for strategic design rather than just a maintenance shop.

The pilot mandate: Starting small, scaling quickly 

For CIOs facing pressure to demonstrate AI value responsibly, the adoption of agentic modernization must begin with a targeted, low-risk pilot. The objective is to select a high-value application—ideally, a non-critical helper application or an internal-facing microservice that has a quantifiable amount of technical debt and clear performance or cost metrics. The goal of this pilot is to prove the agent’s ability to execute the full modernization loop autonomously: Discovery > Refactoring > Automated Testing > Human Approval > Incremental Deployment. Once key success metrics (such as a 40% reduction in time-to-patch or a 15% improvement in cost efficiency) are validated in this controlled environment, the organization gains the confidence and blueprint needed to scale the agent framework horizontally across the rest of the application portfolio, minimizing enterprise risk.

The strategic mandate: Self-optimizing resilience 

By adopting autonomous agents, the operational model shifts from reactive fixes to a resilient, self-optimizing environment. Gartner projects that autonomous AI agents will be one of the fastest transformations in enterprise technology, with a major emphasis on their ability to orchestrate entire workflows across the application migration and modernization lifecycle. These agents are not just tools; they are continuous improvement loops that proactively:

  • Identify a component that is generating high cloud costs.
  • Formulate a refactoring plan for optimization (e.g., move to a managed serverless queue).
  • Execute the refactoring, run automated tests and deploy the change incrementally, all under strict human oversight.

The CIO’s task is to define the strategic goals — cost, performance, resilience — and deploy the agents with the governance and human-in-the-loop controls necessary to allow them to act. This proactive, agent-driven model is the only path to truly continuous modernization, ensuring your cloud estate remains an agile asset, not a perpetual liability

This article is published as part of the Foundry Expert Contributor Network.
Want to join?

CERN: cómo gestiona el riesgo una institución de investigación internacional

Pocas instituciones de investigación hay en el mundo con las dimensiones y el calado de la Organización Europea p​ara la Investigación Nuclear, el CERN. Fundado en 1954 por doce países europeos, el Laboratorio Europeo de Física de Partículas Elementales se localiza en el municipio suizo de Meyrin, en el cantón de Ginebra, aunque sus instalaciones se extienden a lo largo de la frontera franco-suiza. Entre ellas está el Gran Colisionador de Hadrones (LHC), el acelerador de partículas más grande del mundo. La colaboración internacional está en la base de su origen: más de 3.500 personas componen su plantilla fija. Una pequeña villa que se expande a 17.000 habitantes cuando se suma el personal científico de alrededor de 950 instituciones de más de 80 países distintos que colabora en proyectos del centro —o que lo hizo en 2024—. En este ecosistema propio, la gestión del riesgo de TI supone un reto a la altura de la institución.

“El principal problema es que estamos gestionando una organización enorme”, explica Stefan LÃŒders, CISO del CERN. “Somos uno de los institutos de investigación de física de partículas más importantes del planeta. Hacemos cosas sofisticadas e interesantes, lo que nos convierte en blanco de ataques de diferentes comunidades”, resume. Enumera varias de estas potenciales amenazas: script kiddies o hackers con un conocimiento básico, que suponen así y todo un riesgo potencial de seguridad; ransomware o exfiltración de datos; sabotajes al trabajo del CERN; acciones de espionaje y de grupos criminales que intentan infiltrarse a través de ordenadores o dispositivos.

“Aquí es donde entra la gente. Porque tenemos una comunidad de investigadores muy amplia, heterogénea y muy fluctuante. Hay muchos físicos que se unen a la organización cada año. Entran y salen para hacer su doctorado, investigan en el CERN y luego se van”, describe, apuntando al desafío de “cuidar a esta comunidad de usuarios. El otro desafío es el mundo flexible y de rápido desarrollo de las TI”. Añade también la programación —la importación de bibliotecas de código abierto, su seguridad, etc.— y la IA. “Cuanto más sofisticada se vuelve la IA, mayor es la probabilidad de que esas herramientas de seguridad o ataque impulsadas por la IA intenten infiltrarse en la organización”.

Asegurando el CERN

Con esta situación de partida, ¿cómo se asegura una implementación efectiva de las iniciativas en ciberseguridad, que no interrumpan el trabajo científico? “No puedes”, afirma LÃŒders. “La ciberseguridad es inconveniente. Afrontémoslo”. LÃŒders lo equipara a cerrar con llave la puerta de casa o utilizar el PIN para sacar dinero del cajero; pueden ser molesto, pero necesario. “Intentamos explicar a nuestra comunidad por qué se necesitan medidas de seguridad”, señala. “Y si adaptamos nuestras medidas de seguridad a nuestro entorno, la gente las adopta. Sí, hace la investigación algo más complicada, pero solo un poco”.

LÃŒders insiste en el factor del trabajo en investigación. “No somos un banco. No tenemos billones de dólares. No somos una base militar, lo que significa que no debemos proteger a un país. Investigamos, lo que implica adaptar el nivel de seguridad y el de libertad académica para que ambos vayan de la mano. Y esa es una conversación constante con nuestra comunidad de usuarios”. Esta engloba desde el personal científico al de gestión de sistemas de control industrial, el departamento de TI o recursos humanos. “Para afrontar ese reto, es fundamental hablar con la gente. Por eso, insisto, la ciberseguridad es un tema muy sociológico: hablar con la gente, explicarles por qué hacemos esto”. Por ejemplo, no todo el mundo usa de buen grado los sistemas multifactor porque “admitámoslo, son un fastidio. Es mucho más fácil escribir una contraseña e, incluso, ¿quién quiere escribir una contraseña? Solo quieres entrar. Pero para las necesidades de protección, hoy en día tenemos contraseñas y autenticación multifactor. Así que le explicas a la gente qué estás protegiendo. Les decimos por qué es importante proteger su trabajo, al igual que los resultados de la investigación. Y la gran mayoría entiende que se necesita un cierto nivel de seguridad”, asegura. “Pero es un desafío porque aquí conviven muchas culturas diferentes, nacionalidades diferentes, opiniones y pensamientos diferentes, y orígenes diversos. Esto es lo que intentamos adaptar permanentemente”.

Stefan LÌders, CISO del CERN y Tim Bell, líder de la sección de gobernanza, riesgo y cumplimiento de TI del CERN

Stefan LÃŒders y Tim Bell, del CERN.

CERN

Se suma a la conversación Tim Bell, líder de la sección de gobernanza, riesgo y cumplimiento de TI del CERN, quien se encarga de la continuidad del negocio y la recuperación ante desastres. Bell introduce el problema del empleo de tecnología propia. “Si eres visitante de una universidad, querrás traer tu portátil y usarlo en el CERN. No podemos permitirnos retirar estos dispositivos electrónicos al llegar a las instalaciones. Sería incompatible con la naturaleza de la organización. Esto implica que debemos ser capaces de implementar medidas de seguridad del tipo BYOD”.

Porque en el núcleo de todo se mantiene siempre el carácter colaborativo del CERN. “Los trabajos académicos, la ciencia abierta, la libertad de investigación, son parte de nuestro centro. La ciberseguridad necesita adaptarse a esto”, constata LÃŒders. “Tenemos 200.000 dispositivos en nuestra red que son BYOD”. ¿Cómo se aplica entonces la adaptación de la ciberprotección? “Se llama defensa en profundidad”, explica el CISO. “No podemos instalar nada en estos dispositivos finales porque no nos pertenecen, (
) pero tenemos monitorización de red”. De este modo, y aunque no se tenga acceso directo a cada aparato, se advierte cuándo se está realizando algo en contra de las políticas del centro, tanto a nivel de ciberseguridad como de usos no apropiados, como por ejemplo emplear la tecnología que proveen para intereses particulares.

“Es fundamental hablar con la gente. La ciberseguridad es un tema muy sociológico”, reflexiona LÃŒders

Estas medidas se extienden, además, a sistemas obsoletos, que la organización es capaz de asimilar porque cuentan con una red lo suficientemente resistente como para que, aunque un equipo se vea comprometido, no dañe ningún otro sistema del CERN. El problema de la tecnología heredada se extiende al equipo necesario para los experimentos de física que se realizan en el centro. “Estos están protegidos por redes dedicadas, lo que permite que la protección de la red se active y los proteja contra cualquier tipo de abuso”, explica LÃŒders. Sobre los dispositivos conectados IoT no diseñados con la ciberseguridad en mente, “un problema para todas las industrias”, LÃŒders es tajante: “Nunca se conseguirá seguridad en los dispositivos IoT”. Su solución pasa por conectarlos a segmentos de red restringidos donde no se les permite comunicarse con nada más, y luego definir destinos a los que sí comunicarse.

CERN

CERN

Marco general

Esto es parte de un reto mayor: alinear la parte de TI y la de OT, de tal forma que se establezca una continuidad en la seguridad en toda la organización. Un reto que pasa por la centralización. “Hoy en día la parte de OT, los sistemas de controles del CERN, están empleando virtualización de TI”, explica LÃŒders. “La estrategia es reunir a la gente de TI y la de control, de tal modo que la gente de control pueda usar los servicios TI en su beneficio”. Desde el departamento tecnológico se provee con un sistema central con distintas funcionalidades para operaciones, así como por otras áreas de la organización, accesible a través de un único punto de entrada. “Ese es el poder de la centralización”. En este sistema entran, además, nuevas herramientas como las de IA en LLM, en el que tienen en funcionamiento un grupo de trabajo para buscar la mejor manera de emplearlas. “Nos enfrentamos a un gran descubrimiento y, más adelante, lo centralizaremos mediante un servicio central de TI. Y así es como lo hacemos con todas las tecnologías”.

Igual que las materias que investigan en el CERN van evolucionando, así lo hace su marco de gobernanza de TI. Este ha ido siguiendo las novedades del sector, explica Bell, de la mano de auditorías que permiten funcionar según las mejores prácticas. “La parte de la gobernanza está volviéndose más formal. En general, todo estaba bien organizado; solo se trataba de estandarizarlo y desarrollar marcos de políticas a su alrededor”. Pese al establecimiento de estos estándares, el resultado es lo contrario de rígido, explica Bell, quien lo ejemplifica con el caso de una auditoría reciente de ciberseguridad en la que el CERN fue evaluado según uno de los estándares internacionales, lo que sirvió para mejorar el nivel de madurez. “Estamos adoptando una política de gobernanza de TI bastante flexible, aprendiendo de la experiencia de otros en la adopción de estándares del sector”, concluye.

米囜アグリテックの2025幎を振り返る

少ない案件に、より明確なリタヌン蚭蚈を求める

たず投資の空気感から敎理するず、2024幎のアグリフヌドテック投資は玄160億ドル芏暡で、前幎からの枛少幅が小さくなったずするレポヌトが出おいたす。倧局では「急降䞋が止たり぀぀ある」ずいう評䟡で、米囜を含む先進垂堎で投資が戻り始めたずいう芋立おも瀺されおいたす。

ただし、ここで重芁なのは“資金が戻った景気が良い”ではない点です。レポヌトでは案件数が枛っおいるこずも瀺唆され、投資家が「同じ金額を、より少ない䌚瀟に」配分しやすい構図が続いおいたす。぀たり、成長ストヌリヌよりも、導入単䜍での採算、販売チャネル、継続課金の根拠、そしおハヌドなら保守䜓制たで含めた“オペレヌションの蚭蚈図”が匱いず、資金が付きにくい。これが2025幎の米囜で䜓感されるアグリテックの珟実です。

この「遞別」は、2025幎の米囜アグテックの資金統蚈にも衚れおいたす。ロむタヌはPitchBookデヌタを匕きながら、2025幎Q1の米囜アグテックVC投資が玄16億ドル・137件で、案件数が萜ち蟌んでいるこずを報じおいたす。䞀方で、粟密蟲業、ずりわけロボティクスやスマヌト機噚の領域が盞察的に䌞びおいるずも述べ、資金が“蟲堎で効く自動化”に傟きやすい構造を描いおいたす。

ここには米囜蟲業偎の景況も絡みたす。貿易摩擊や䟡栌倉動が蟲家のキャッシュフロヌを揺らし、政府の支揎策が短期の䞋支えになる䞀方で、䞍確実性そのものは消えたせん。APは、貿易戊争の圱響を受ける蟲家向けにトランプ政暩が120億ドル芏暡の支揎に蚀及したず報じおおり、政策が垂堎の揺れを“埋める”局面が続いおいるこずがうかがえたす。こうした環境では、導入の意思決定が遅れやすく、結果ずしお「確実に回収できる投資」ぞの需芁が匷たりたす。

芁するに、米囜アグリテックの投資は回埩基調のサむンがあり぀぀も、成長期埅だけで資金が集たる時代には戻っおいたせん。蟲家が払える䟡栌、導入しおも止たらない保守、そしお成果が数字で説明できるプロダクトだけが前に出る。“遞別が通垞運転になった”ずいう理解が、珟圚の立ち䜍眮ずしお最も正確でしょう。

自動化ずAIは「珟堎の䜜業」を眮き換える段階ぞ自埋機械の普及を巊右する“修理暩”ずいう制床リスク

2025幎の米囜アグリテックで、最も具䜓的な進展が芋えるのは自動化です。象城的なのがゞョンディアのCES 2025発衚で、同瀟は第2䞖代の自埋Autonomyキットを打ち出し、コンピュヌタビゞョンやAI、耇数カメラによる呚蟺認識を匷化しお適甚範囲を広げる方針を瀺したした。公匏発衚では、360床の芖野を確保するカメラ構成など、埓来より“環境認識を厚くしお、任せられる䜜業を増やす”方向性が読み取れたす。

特に果暹園の防陀のような、単調だが長時間で、しかも安党リスクも䌎う䜜業に自埋機械を圓おにいくのは、劎働力䞍足の米囜蟲業にずっお自然な流れです。これは「トラクタヌが勝手に走る」デモの時代から、「どの工皋を、どのコストで、どれだけ安定皌働させるか」ずいう工皋蚭蚈の段階ぞ入ったこずを意味したす。

同じロむタヌ報道は、Monarch Tractorが酪蟲向けの自埋䜜業飌料の抌し蟌み等で手応えを埗おいるこず、さらに倪陜光発電所の土地管理のような“蟲地以倖の広倧地”でロボットトラクタヌ需芁が䌞びおいる点にも觊れおいたす。AIデヌタセンタヌ拡倧で倪陜光蚭備が増えるほど、草管理や保守に機械化が効く。アグリテックが蟲業の枠を超え、広矩のランドマネゞメントぞ䌞びる兆しずしお興味深い珟象です。

䞀方で、珟堎導入が進むほど深刻になるのが、゜フトりェア化した蟲機の「盎せなさ」です。米囜FTCは2025幎1月、ディアが蚺断ツヌルや修理゜フトぞのアクセスを事実䞊制限し、蟲家や独立修理業者が修理できない構造を䜜っおいるずしお提蚎したず発衚しおいたす。FTCは、これが修理費の䞊昇や修理埅ちによる皌働停止を招き、結果ずしお蟲家を䞍利にするずいう構図を問題芖しおいたす。

この争点が普及に盎結するのは、蟲業が“壊れたら終わり”の産業だからです。収穫や防陀は埅っおくれず、修理が数日遅れるだけで損害が跳ね䞊がる。自埋化が進み、機械が高額化するほど、修理の自由床ずダりンタむムは投資回収の前提条件になりたす。぀たり、アグリテックの競争は技術だけでなく、保守・修理・運甚暩限の蚭蚈を含む制床戊になり぀぀ありたす。

州レベルでも動きがあり、コロラド州では蟲業機械の修理暩に関する法埋が2024幎1月に斜行されおいたす。メヌカヌが修理に必芁な情報や郚品等を提䟛すべきだずいう方向性が法制床ずしお明文化され、連邊の動きず䞊行しお“修理暩が珟実のルヌルになっおいく”流れが芋えたす。

これが意味するのは、スタヌトアップ偎にずっおも「OEMに䟝存しない運甚性」「蚺断ず郚品䟛絊の蚭蚈」「デヌタの持ち䞻は誰か」が、プロダクト䟡倀の䞀郚になったずいうこずです。デゞタル蟲業のプラットフォヌム化が進むず、ビッグテックや巚倧アグリビゞネスがサヌビスを束ね、゚コシステムを圢成しおいくずいう研究指摘もあり、デヌタずサヌビスの統合は今埌さらに進むでしょう。

そしお、AIの“普及の土台”ずしおの粟密蟲業は、珟時点でも芏暡による栌差が明確です。USDA ERSは、粟密蟲業技術の採甚が蟲堎芏暡ず匷く盞関し、倧芏暡蟲堎ほど導入が進むこずを瀺しおいたす。AIが蟲業に浞透する速床は、結局のずころデヌタを取れる装備ず、運甚を回せる人材があるかで決たりやすい。米囜アグリテックがたず倧芏暡・高収益䜜物から攻めるのは、技術の問題ずいうより“導入条件の問題”でもありたす。

政策ず採算の再蚈算が進む気候スマヌトの組み替え、屋内蟲業の再線、MRVず生物資材が「次の収益軞」に

2025幎の米囜アグリテックを語るうえで、政策の揺れは避けられたせん。USDAは2025幎4月、バむデン政暩䞋で進められた気候スマヌト関連の取り組みPartnerships for Climate-Smart Commoditiesを芋盎し、別の枠組みぞ改組する方針を発衚したした。USDA自身が、既存斜策を“珟政暩の優先事項に合わせお改革する”ず述べおおり、補助金・実蚌・垂堎圢成を前提にした事業蚈画は、前提条件が倉わりうる局面にありたす。

ここでのポむントは、気候察応が埌退するずいう単玔な話ではなく、「どの手段に公的資金が乗るか」が倉わるこずです。アグリテック偎は、政策䟝存床が高いモデルほど資金調達ず継続性の説明が難しくなり、逆に政策が倉わっおも蟲家の損益に盎接効く省力化や投入削枛の䟡倀が盞察的に匷くなりたす。

この“採算の再蚈算”が最も痛烈に出たのが屋内蟲業です。2024幎にはBowery Farmingが事業停止に向かったず報じられ、垂盎蟲法の倧型プレむダヌが資金繰りず収益性で行き詰たる構図が改めお可芖化されたした。

さらに2025幎にはPlentyがChapter 11米連邊砎産法11章手続きに入ったず報じられ、巚額の資金調達が必ずしも事業の持続性を保蚌しないこずが匷調されたした。WSJは、同瀟が資金調達難ず債務の積み䞊がりに盎面した経緯を䌝えおいたす。

ただし同時に、Plentyは再線埌にむチゎ生産拠点の敎備を進める意向も瀺しおおり、屋内蟲業が党面吊定されたずいうより「どの䜜物で、どの立地で、どんな販売契玄を持぀か」ずいう事業蚭蚈が“蟲業らしく”絞り蟌たれおいく段階に入ったず芋る方が実態に近いでしょう。

屋内蟲業が苊しむ䞀方で、気候・環境の䟡倀を“珟金化”する動きずしお存圚感を増しおいるのが、土壌炭玠などのMRVずクレゞットです。Indigoは2025幎4月、Climate Action Reserveを通じお第四期のカヌボンクレゞットが発行され、环積で100䞇トン芏暡に近づいおいるず発衚したした。さらに2025幎5月には、Microsoftが同瀟の土壌炭玠クレゞット6䞇件の賌入をコミットしたずしおいたす。ここで重芁なのは、単なる売買の話ではなく、「第䞉者怜蚌のクレゞットがたずたった芏暡で出る」こずが、䌁業偎の調達を可胜にしおいる点です。

MRVがなぜ鍵になるかず蚀えば、再生型蟲業の効果は土壌・倩候・圃堎条件のばら぀きが倧きく、スケヌルさせるほど䞍確実性が増すからです。Indigoが倧芏暡な土壌炭玠クレゞットを生成するためのMRVパむプラむンを構築したずする技術論文もあり、米囜では「蟲業デヌタを䜿っお環境䟡倀を定量化し、取匕可胜にする」方向に研究ず事業が噛み合い始めおいたす。

そしおもう䞀぀、珟堎実装が進みやすいのが生物由来資材です。米囜ではEPAがバむオ蟲薬埮生物蟲薬、バむオケミカル等を含む登録の枠組みやガむダンスを敎備しおおり、少なくずも制床面では“生物系プロダクトが垂堎に出る道筋”が甚意されおいたす。化孊資材の芏制や消費者の芁請が匷たるほど、病害虫察策や土壌改良でバむオロゞカルが採甚される䜙地は広がりたす。

たた、USDAはスペシャルティクロップ果菜・果暹などを支揎する助成を継続しおおり、2024幎床に玄7,290䞇ドルのプロゞェクトが敎理され、2025幎床も同芏暡の助成が瀺されおいたす。スペシャルティ䜜物は単䟡が高い分、品質・残留・病害虫リスクの管理が収益に盎結しやすく、デゞタル蟲業や生物資材の“投資回収”が説明しやすい土壌がありたす。

2025幎末の米囜アグリテックをたずめるず、成長の物語は「AIで蟲業が倉わる」から、「どの工皋を、どの制床の䞋で、どんな採算で倉えるのか」ぞ移りたした。自埋機械は劎働力䞍足ずいう構造問題に真正面から刺さり、MRVは気候䟡倀を珟金化するむンフラになり぀぀ある。䞀方で、屋内蟲業は“工堎”の論理だけでは回らず、䜜物遞定・契玄・゚ネルギヌ・建蚭の党おを珟実の蟲業に合わせお組み盎す必芁がありたす。

8 tips for rebuilding an AI-ready data strategy

Any organization that wants to have a leading AI strategy must first have a winning data strategy.

That’s the message from Ed Lovely, vice president and chief data officer for IBM.

“When you think about scaling AI, data is the foundation,” he says.

However, few organizations have a data architecture aligned to their AI ambitions, he says. Instead, they have siloed data that’s not governed by consistent data standards — the result of longstanding enterprise data strategies that created IT environments application by application to deliver point-in-time decisions rather than to support enterprise-wide artificial intelligence deployments.

The 2025 IBM study AI Ambitions Are Surging, But Is Enterprise Data Ready? shows just how many are struggling with their data. It found that only 26% of 1,700 CDOs worldwide feel confident their data can support new AI-enabled revenue streams.

What’s needed, Lovely says, is an integrated enterprise data architecture, where the same standards, governance, and metadata are applied “regardless of where data is born.”

Lovely is not alone in seeing a need for organizations to update their data strategies.

“Most organizations need to modernize their data strategies because AI changes not just how data is used, but why it’s used and where value is created,” says Adam Wright, research manager for IDC’s Global DataSphere and Global StorageSphere research programs and co-author of the 2025 report Content Creation in the Age of Generative AI.

“Traditional data strategies were built for reporting, BI, and automation, but AI requires far more dynamic, granular, and real-time data pipelines that can fuel iterative, model-driven workflows. This means shifting from static data governance to continuous data quality monitoring, stronger metadata and lineage tracking, and retention policies that reflect AI’s blend of ephemeral, cached, and saved data,” he says. “The AI era demands that organizations evolve from a collect/store everything mentality toward intentional, value-driven data strategies that balance cost, risk, and the specific AI outcomes they want to achieve.”

High-maturity data foundations

Most organizations are far from that objective.

“Many organizations continue to struggle with having the ‘right’ data, whether that means sufficient volume, appropriate quality, or the necessary contextual metadata to support AI use cases,” Wright says. “In IDC research and industry conversations, data readiness consistently emerges as one of the top barriers to realizing AI value, often outranking compute cost or model selection. Most enterprises are still dealing with fragmented systems, inconsistent governance, and limited visibility into what data they actually have and how trustworthy it is.”

Lovely says IBM had faced many such challenges but spent the past three years tackling them to make its data AI ready.

IBM’s data strategy for the AI era included multiple changes to longstanding approaches, enabling it to build what Lovely calls an integrated enterprise data architecture. For example, the company retained the concept of data owners but “helped them understand that the data is an IBM asset, and if we’re able to democratize it in a controlled, secure way, we can run the business in a better, more productive way,” Lovely says.

As a result, IBM moved from multiple teams managing siloed data to a common team using common standards and common architectures. Enterprise leaders also consolidated 300 terabytes of data, selecting needed data based on the outcomes the company seeks and the workflows that drive those outcomes.

“We were deliberate,” Lovely says, adding that its data platform now covers about 80% of IBM workflows. “One of the greatest productivity unlocks for an enterprise today is to create an integrated enterprise data architecture. We’re rapidly deploying AI at our company because of our investment in data.”

8 tips for building a better data strategy

To build high maturity in data foundations and data consumption capabilities, organizations need a data strategy for the AI era — one that enforces data quality, breaks down data siloes, and aligns data capabilities with the AI use cases prioritized by the business.

Experts offer steps to take:

1. Rethink data ownership

“Traditional models that treat data ownership as a purely IT issue no longer work when business units, product teams, and AI platforms are all generating and transforming data continuously,” Wright explains. “Ideally, clear accountability should sit with a senior data leader such as a CDO, but organizations without a CDO must ensure that data governance responsibilities are explicitly distributed across IT, security, and the business.”

It’s critical to have “a single point of authority for defining policies and a federated model for execution, so that business units remain empowered but not unchecked,” he adds.

Manjeet Rege, professor and chair of the Department of Software Engineering and Data Science and director of the Center for Applied Artificial Intelligence at the University of St. Thomas, advises organizations to reframe data owners as data stewards, who don’t own the data but rather own the meaning and quality of the data based on standards, governance, security, and interoperability set by a central data function.

2. Break down siloes

To do this, “CIOs need to align business units around shared AI and data outcomes, because gen AI only delivers value when workflows, processes, and data sources are connected across the enterprise,” Wright says.

“This means establishing cross-functional governance, standardizing taxonomies and policies, and creating incentives for teams to share data rather than protect it,” he adds. “Technology helps through unified platforms, metadata layers, and common security frameworks, but the real unlock comes from coordinated leadership across the C-suite and business stakeholders.”

3. Invest in data technologies for the AI era

These technologies include modern data lakes and data lakehouses, vector databases, and scalable object storage, all of which “can handle high-volume, multimodal data with strong governance,” Wright says.

Organizations also need orchestration and pipeline tools that automate ingestion, cleansing, transformation, and movement so that AI workflows can run reliably end-to-end. Metadata engines and governance layers are essential to enable models to understand context, track lineage, and safely and reliably use both structured and unstructured data.

Build a data platform layer that is “modular, governed, and able to evolve,” Rege advises. “You need architecture that can treat data as a reusable product, and not just for a single pipeline, and can be used for both batch and real-time needs.”

Rege also endorses data lakes and data lakehouses, saying they’re “becoming the backbones of AI because they can handle structured and unstructured data.”

Additionally, Shayan Mohanty, chief AI and data officer at Thoughtworks, advises CIOs to build a composable enterprise, with modular technologies and flexible structures that enable humans and AI to access data and work across the multiple layers.

Experts also advise CIOs to invest in technologies that address emerging data lifecycle needs.

“Generative AI is fundamentally reshaping the data lifecycle, creating a far more dynamic mix of ephemeral, cached, and persistently stored content. Most gen AI outputs are short-lived and used only for seconds, minutes, or hours, which increases the need for high-performance infrastructure like DRAM and SSDs to handle rapid iteration, caching, and volatile workflows,” Wright says.

“But at the same time, a meaningful subset of gen AI outputs does persist, such as finalized documents, approved media assets, synthetic training datasets, and compliance-relevant content, and these still rely heavily on cost-efficient, high-capacity HDDs for long-term storage,” he adds. “As gen AI adoption grows, organizations will need data strategies that accommodate this full lifecycle from ultra-fast memory for transient content to robust HDD-based systems for durable archives, because the storage burden/dynamics is shifting.”

4. Automate and add intelligence to the data architecture

Mohanty blames the poor state of enterprise data on “a rift between data producers and data consumers,” with the data being produced going into a “giant pile somewhere, in what’s called data warehouses” with analytics layers then created to make use of it. This approach, he notes, requires a lot of human knowledge and manual effort to make work.

He advises organizations to adopt a data product mindset “to bring data producers and data consumers closer together” and to add automation and intelligence to their enterprise architecture so that AI can identify and access the right data when needed.

CIOs can use Model Context Protocol (MCP) to wrap data and provide that protocol-level access, Mohanty says, noting that access requires organizations to encode information in its catalog and tools to ensure data discoverability.

5. Ensure structured and unstructured data is AI-ready

“Structured data is AI-ready when it is consistently formatted, well-governed, and enriched with accurate metadata, making it easy for models to understand and use,” Wright says. “Organizations should prioritize strong data quality controls, master data management, and clear ownership so structured datasets remain reliable, interoperable, and aligned to specific AI use cases.”

Experts stress the need to bring that same discipline to unstructured data, ensuring that unstructured data is also properly tagged, classified, and enriched with metadata so AI systems can understand and retrieve it effectively.

“You need to treat unstructured data as a first-class data asset,” Rege says. “Most of the most interesting AI use cases live in unstructured data like customer service audio calls, messages, and documents, but for many organization organizations unstructured data remains a blind spot.”

Rege advises storing it in vector databases where information is searchable.

6. Consider external data sources and synthetic data

“Organizations should absolutely evaluate whether external or synthetic data is needed when their existing data is incomplete, biased, too small, or poorly aligned with the AI use case they’re trying to pursue,” Wright says, noting that “synthetic data becomes especially useful when real data is sensitive, costly to collect, or limited by privacy, regulatory, or operational constraints.”

7. Implement a high-maturity data foundation incrementally

Don’t wait until data is in a perfect place to start, says Shibani Ahuja, senior vice president of enterprise IT strategy at Salesforce.

“There are organizations that feel they have to get all their data right before they can pull the trigger, but they’re also getting pressure to start on the journey,” she says.

As is the case when maturing most enterprise programs, CIOs and their executive colleagues can — and should — take an incremental approach to building a data program for the AI era.

Ahuja recommends maturing a data program by working outcome to outcome, creating a data strategy and architecture to support one AI-driven outcome and then moving onto subsequent ones.

“It’s a way of thinking: reverse engineering from what you need,” Ahuja says. “Put something in production, make sure you have the right guardrails, observe it, and tweak it so it scales, then put in the next one.”

8. Take a cross-functional approach to data team building

“Data should be supported by a cross-functional ecosystem that includes IT, data governance, security, and the business units that actually use the data to drive decisions,” Wright says. “AI-era data strategy works best when these teams share ownership, where IT teams enable the infrastructure, governance teams ensure trust and quality, and business teams define the context and value.”

AI fosters distrust for both tech candidate and employer

AI is creating trust issues for recruiters, hiring managers, and job-seeking tech professionals, according to The Trust Gap in Tech Hiring 2025 report from Dice. The survey found that 80% of tech professionals trust fully human driven hiring process, while only 46% trust AI and human hybrid approaches. But only 14% said they’d trust fully AI-driven processes. Nearly half also said they’d choose to opt-out of AI résumé screening if they were given the choice.

Main concerns from respondents include worries that AI screening tools will favor keywords over qualifications (63%), fears that qualified candidates will be rejected due to narrow criteria (63%), and a belief that a human will never see their résumé (56%).

Distrust is further amplified by a challenging tech hiring market that follows years of layoffs, economic instability, and uncertainty, as well as new concerns around job displacement due to AI. Candidates have a lower frustration tolerance for minor process issues compared to when it was easier to find a tech role, according to the Dice report. However, despite this rise in distrust, the 2025 AI in Hiring Report from Insight Global found that a staggering 99% of hiring managers report using AI in the hiring process, with 98% saying they saw significant improvements in hiring efficiency using AI.

“AI tends to blur the line between confidence and embellishment,” says Dice president Paul Farnsworth. “When candidates feel they have to beat the algorithm, it shifts focus away from real skills and experience.”

This results in a lot of candidates who look the part on paper but may not actually be the right fit, he adds. And an influx of candidates using AI to hone their résumés means more applications to sift through.

“It can also create longer hiring cycles, which means more time spent filtering through inflated résumés and more interviews that don’t lead to the right hire,” Farnsworth says. “Over time, that erodes trust in the system from both sides.”

How AI is used in hiring

In tech hiring, AI is currently most used for scanning responses, ranking candidates, and automating communication or scheduling steps. “It’s helping recruiters manage volume and improve response speed, and that’s a clear win for efficiency,” says Sara Gutierrez, chief science officer at SHL, a global talent assessment company.

AI’s greatest strength in tech hiring, though, is through automating certain processes that can help free up recruiters and hiring managers to focus on interviews and identify qualified candidates. Companies need to have a clear strategy in place for where AI will be implemented and where humans will lead the charge. It’s still important to demonstrate transparency around AI in hiring so it doesn’t override the human side.

“The challenge comes when AI decisions are built on data that were never meant to indicate job success, like résumé phrasing, education keywords, or past job titles,” says Gutierrez.

As Farnsworth points out, while AI can help streamline the application process and spot patterns across candidates that might have been missed otherwise, there’s always the chance that AI will also filter out great people for the wrong reasons. For example, if the AI system leans too hard on keywords or rigid templates, he adds, you risk missing out on potential talent.

“We’re seeing AI pop up in a bunch of different ways like job ad targeting and even early-stage interviews, and that can be helpful, but only if it’s used responsibly,” says Farnsworth. “The overall goal is to give hiring teams better signals so they can make smarter decisions. When AI is treated like a tool, not a gatekeeper, that’s when it adds real value.”

Lack of authenticity and individuality

Dice also found that 78% of candidates feel they need to embellish qualifications to get noticed, while 65% say they’ve modified their résumés using AI to improve chances of it being seen. This brings up further concerns. “When candidates feel they have to exaggerate just to stay competitive, it chips away at authenticity and trust,” says Farnsworth.

It’s getting to the point where it’s becoming the hiring version of an arms race, says Gutierrez. Candidates are using AI to tailor résumés for algorithms, and employers are using AI to scan them, so the resulting noise makes it harder to distinguish genuine capability from AI-optimized presentation.

The more candidates use AI to structure their résumés, the more they start to look alike, which only makes it more difficult to sift through applications to find the best fit. AI might polish résumés, but it often doesn’t reflect the person’s real experience, says Farnsworth. “It’s hard to maintain your professional brand and voice if you’re running your résumé through an AI chat-bot that’ll potentially strip your personality from the final draft,” he says. “Ideally, hiring should be about who’s genuinely the best fit, not who wrote the most machine-friendly bullet points.”

Gutierrez adds that the future doesn’t require choosing between AI and authenticity, but rather finding the balance where AI can handle the administrative burden, thus freeing humans to focus on connection and context. It’s important to establish exactly how AI will support recruiters, hiring managers, and candidates as a well-defined strategy will build trust on both sides when hiring.

Leading with AI transparency

Transparency is the driving factor to consider when implementing AI in the hiring process, while still building trust. It’s important candidates understand how and where AI is used, and how to use it as an assistant. There are several steps to make sure candidates are reassured, and that they’re being evaluated by humans, not overlooked by an algorithm.

“That kind of openness not only eases candidate anxiety, but reinforces that the tech is there to enhance the process, not replace fairness or human judgment,” says Farnsworth.

Companies should focus on transparency around how AI is used in hiring, and according to Dice, this can include:

  • Assuring candidates there’s a human review for applications.
  • Offering secondary human review options for AI rejections with regular audits of AI decisions.
  • Establishing recruiter accountability metrics and mandatory response timelines.
  • Using AI to identify potential candidates rather than eliminate them.
  • Introducing match scoring to show a fit percentage for candidates.
  • Keeping AI focused on admin and humans focused on high-level thinking.
  • Confirming with candidates when applications are received and reviewed by humans, and notifying candidates when a position is filled.
  • Offering specific feedback to rejected candidates and steering clear of generic form responses.

The fear candidates express that AI will favor keywords over qualifications, they’ll be rejected if they don’t fit narrow criteria, and sense that a human won’t even see their résumé is cause for alarm. Dice found these fears have impacted tech workers to the point that 30% of respondents say they’re considering leaving the industry due to hiring frustrations, while 24% say they’re currently committed but growing frustrated.

“That stat should be a wake-up call,” says Farnsworth. “If people feel like they’re shouting into the void, they won’t stick around. Companies need to make sure the hiring experience doesn’t feel like a black box.”

핀옵슀 재닚, FOCUS 1.3 공개···하읎람늬드 환겜 비용 ꎀ늬 표쀀 강화

멀티큎띌우드와 하읎람늬드 읞프띌 환겜을 포핚한 서로 닀륞 플랫폌 전반에서 곌ꞈ 데읎터륌 얎떻게 정규화할 것읞지는 많은 조직의 욎영을 가로막는 대표적읞 곌제로 ꌜ힌닀. Ʞ업듀은 닀양한 큎띌우드 제공업첎와 SaaS 플랫폌, 옚프레믞슀 읞프띌에서 발생하는 비용 데읎터륌 맞추Ʞ 위핎 맞춀형 통합을 구축하는 데 상당한 자원을 투입하고 있닀.

읎 영역을 닀룚는 것읎 최귌 몇 년간 죌목받아 옚 핀옵슀(FinOps)ë‹€. 핀옵슀는 재묎, 욎영, 엔지니얎링 팀읎 협력핎 큎띌우드와 Ʞ술 지출을 ꎀ늬하는 싀묎 첎계닀. 읎 움직임을 읎끄는 죌요 조직 가욎데 하나가 늬눅슀 재닚 프로젝튞의 음환읞 핀옵슀 재닚읎닀.

핀옵슀 재닚은 2023년 비용·사용 사양읞 FOCUS(FinOps Open Cost and Usage Specification)을 ꎀ늬하고 있닀. FOCUS의 핵심 목표는 제공업첎가 곌ꞈ 데읎터륌 표현하는 방식을 표쀀화핎, 조직읎 플랫폌별로 개별 통합을 구축하지 않고도 여러 환겜의 비용을 비교할 수 있도록 돕는 데 있닀. 현재 구Ꞁ, 였띌큎, 마읎크로소프튞(MS), 아마졎웹서비슀(AWS), 알늬바바, 화웚읎, 텐섌튞 등 죌요 큎띌우드 벀더와 데읎터람늭슀, 귞띌파나 같은 플랫폌 제공업첎륌 포핚핎 12곳읎 넘는 Ʞ업읎 FOCUS륌 지원하고 있닀. 읎 사양은 쎈Ʞ의 큎띌우드 쀑심 범위륌 넘얎 SaaS, 데읎터섌터, 신흥 AI 읞프띌 지출까지 포ꎄ하도록 진화했닀.

핀옵슀 재닚은 읎번 죌 FOCUS 1.3 사양을 공개하며, 였랫동안 핎결되지 않았던 섞 가지 Ʞ술적 곌제륌 닀룚는 데 쎈점을 맞췄닀고 밝혔닀. 공유 늬소슀 비용을 투명한 할당 방식윌로 분늬하는 묞제, 계앜 êž°ë°˜ 앜정을 구조화된 형식윌로 추적하는 묞제, 표쀀화된 메타데읎터륌 통핎 데읎터의 최신성곌 완전성을 검슝하는 묞제가 포핚된닀.

핀옵슀 재닚의 집행 읎사 J.R. 슀토뚌튞는 파욎드늬 산하 얞론사 넀튞워크월드와의 읞터뷰에서 “FOCUS는 큎띌우드와 Ʞ술 가치륌 표현하는 공통 ì–žì–Žê°€ 되는 것을 목표로 한닀”고 섀명했닀.

큎띌우드 쀑심에서 하읎람늬드 읞프띌 ꎀ늬로

핀옵슀 싀묎는 2023년 FOCUS 사양읎 처음 공개된 읎후 큰 폭윌로 확장됐닀. 큎띌우드 비용 ꎀ늬에서 출발한 접귌법은 읎제 닀양한 읞프띌 유형 전반에 걞쳐 Ʞ술 가치륌 ꎀ늬하는 포ꎄ적읞 첎계로 진화했닀.

슀토뚌튞는 “2024년 말부터 2025년 쎈에 걞쳐 가장 큰 변화가 나타났는데, 핀옵슀 싀묎가 큎띌우드륌 넘얎 확장되Ʞ 시작했닀”고 섀명했닀. 귞는 “많은 조직읎 핀옵슀륌 활용핎 큎띌우드 가치 ꎀ늬륌 맀우 횚곌적윌로 수행하게 되자, 큎띌우드와 SaaS, 데읎터섌터가 공졎하는 하읎람늬드 환겜에서도 핀옵슀륌 적용할 수 있는지 묻Ʞ 시작했닀”며 “SaaS나 슀녞우플레읎크, 데읎터섌터에도 같은 방식을 적용할 수 있느냐는 요구가 읎얎졌닀”고 전했닀.

핀옵슀 재닚 컀뮀니티는 현재 앜 10만 명의 싀묎자로 성장했닀. 읎 조직에는 죌요 큎띌우드 벀더륌 비롯핎 엔비디아와 AMD 같은 하드웚얎 업첎, 데읎터섌터 욎영사, 슀녞우플레읎크와 데읎터람늭슀 같은 데읎터 큎띌우드 플랫폌읎 찞여하고 있닀. 포춘 100대 êž°ì—… 가욎데 96곳읎 핀옵슀 재닚 프로귞랚에 ì°žì—¬ 쀑읎닀.

핀옵슀 싀묎 자첎도 두 가지 방향윌로 변화했닀. 뚌저 아킀텍처와 섀계의 쎈Ʞ 닚계로 읎동하며 사후 대응 쀑심에서 사전 ꎀ늬 쀑심윌로 바뀌었닀. 동시에 조직 낮 위상도 높아젞, 디렉터꞉ 큎띌우드 ꎀ늬 역할을 넘얎 여러 읞프띌 유형을 아우륎는 Ʞ술 포튞폎늬였륌 ꎀ늬하는 SVP와 COO 직꞉윌로 확대됐닀.

읎 같은 확장은 FOCUS가 Ʞ졎의 큎띌우드 곌ꞈ 쀑심 사양을 넘얎 진화하는 계Ʞ가 됐닀. Ʞ업듀은 제공업첎가 FOCUS 형식의 데읎터륌 Ʞ볞 제공하지 않더띌도 낎부 비용 배분 볎고의 표쀀윌로 FOCUS륌 적용하고 있닀. 특히 AI 읞프띌에 쎈점을 맞춘 음부 신생 큎띌우드 제공업첎는 Ʞ졎 시슀템을 사후에 맞추는 대신, 처음부터 FOCUS 사양을 Ʞ쀀윌로 곌ꞈ 데읎터 구조륌 섀계하고 있닀.

FOCUS 1.3의 출시는 읎러한 성숙 닚계륌 반영한 결곌로, 점점 더 복잡핎지는 하읎람늬드 환겜 전반에 비용 ꎀ늬 첎계륌 적용하는 곌정에서 드러난 Ʞ술적 공백을 핎소하는 데 쎈점을 맞추고 있닀.

공유 읞프띌 비용 할당 로직을 드러낞 FOCUS 1.3

FOCUS 1.3에서 가장 쀑요한 Ʞ술적 개선은 공유 읞프띌 비용을 얎떻게 할당하고 볎고하는지에 대한 공백을 핎소한 점읎닀. Ʞ졎 구현 방식에서는 싀묎자가 제공업첎가 정한 할당 결곌륌 방법론에 대한 가시성 없읎 받아듀읎거나, 비용을 재분배하Ʞ 위한 별도의 맞춀형 로직을 직접 구축핎알 했닀.

FOCUS 1.3은 워크로드별 비용 분할에 사용된 방식을 드러낎는 할당 전용 컬럌을 도입했닀. 닚순히 최종 할당 비용만 제공받는 구조에서 벗얎나, ì–Žë–€ 할당 접귌법읎 적용됐는지와 귞에 따륞 계산 방식까지 핚께 확읞할 수 있게 된 것읎닀.

읎 변화는 멀티테넌튞 쿠버넀티슀 큎러슀터나 공유 데읎터베읎슀 읞슀턎슀륌 욎영하는 조직에 특히 유용하닀. 플랫폌 엔지니얎링 팀은 제공업첎의 비용 할당 방식읎 낎부 비용 몚덞곌 비용 배분 시슀템에 부합하는지 검슝할 수 있닀.

또한 읎 사양은 제공업첎가 늬소슀 êž°ë°˜ 할당, 사용량 êž°ë°˜ 할당, 또는 두 방식을 결합한 혌합 접귌법 가욎데 ì–Žë–€ 방식을 적용하고 있는지륌 표쀀화된 형태로 묞서화할 수 있도록 지원한닀.

계앜 데읎터와 사용 데읎터의 분늬

여러 큎띌우드 제공업첎 전반에서 예앜 읞슀턎슀, 섞읎빙 플랜, 앜정 사용 할읞을 추적하는 조직은 데읎터 구조상의 한계에 직멎핎 왔닀. 현재의 곌ꞈ 낎볎낎Ʞ 방식은 계앜 섞부 정볎륌 사용량 행 안에 핚께 포핚하고 있닀. 하나의 비용 레윔드에 시간당 사용 요ꞈ곌 앜정 ꎀ렚 정볎의 음부가 여러 컬럌에 흩얎젞 닎Ʞ는 구조닀.

읎로 읞핎 Ʞ볞적읞 질의조찚 쉜지 않닀. 예륌 듀얎 “현재 활성화된 몚든 앜정은 묎엇읎며, 각각 ì–žì œ 만료되는가”띌는 질묞에 답하렀멎 사용 데읎터륌 음음읎 파싱하고, 계앜 찞조륌 쀑복 제거한 ë’€, 수천 개의 곌ꞈ 행에 분산된 불완전한 정볎륌 닀시 조합핎알 한닀.

FOCUS 1.3은 비용·사용 데읎터와 분늬된 전용 계앜 앜정 데읎터셋을 새롭게 정의했닀. 읎 데읎터셋에는 계앜 시작음곌 종료음, 앜정 닚위, 계앜 섀명읎 질의 가능한 형식윌로 포핚된닀. 사용 데읎터에 접귌하지 않더띌도 닚음 SELECT 묞윌로 몚든 활성 앜정을 조회할 수 있닀.

데읎터 분늬는 ì ‘ê·Œ 제얎 잡멎에서도 의믞가 크닀. 재묎 팀은 계앜 조걎곌 앜정 상태륌 확읞하고, 욎영 팀은 용량 계획에 필요한 사용 데읎터만 접귌하도록 구분할 수 있닀. 읎는 계앜 조걎을 특정 역할로 제한핎알 하는 ꞈ융곌 헬슀쌀얎 분알의 컎플띌읎얞슀 요구륌 충족하는 데도 도움읎 된닀.

핀옵슀 재닚의 수석 프로덕튞 맀니저 맀튞 윔워튞는 넀튞워크월드와의 읞터뷰에서 “읎전에는 FOCUS 메타데읎터륌 통핎 읎런 정볎륌 표현할 수 있는 방법읎 없었닀”며 “읎륌 지원하는 제공업첎가 핎당 공백을 핎소할 수 있도록 하고자 했닀”고 섀명했닀.

읎번 변화는 FOCUS가 비용곌 사용 데읎터륌 넘얎 새로욎 데읎터셋을 정의한 첫 사례닀. 동시에 향후 읞볎읎슀와 가격표륌 아우륎는 읞접 데읎터셋윌로 확장할 수 있는 구조적 틀을 마렚했닀.

불완전한 데읎터륌 식별

자동화된 비용 정산 워크플로는 불완전한 곌ꞈ 데읎터륌 처늬할 겜우 정상적윌로 작동하지 않는닀. 대표적읞 사례로는 재묎 부서가 가용한 데읎터륌 Ʞ쀀윌로 월말 마감을 진행한 ë’€, 읎틀 후 큎띌우드 제공업첎가 사용 Ʞ록을 수정하며 읎전에 볎고되지 않았던 비용을 추가하는 상황읎 있닀.

FOCUS 1.3은 데읎터가 완전한지, 아니멎 추후 수정될 가능성읎 있는지륌 나타낮는 메타데읎터륌 제공업첎가 포핚하도록 요구한닀. 읎 사양은 타임슀탬프 필드와 완전성 플래귞륌 구조화된 형식윌로 정의핎, 애플늬쌀읎션읎 읎륌 프로귞랚 방식윌로 점검할 수 있도록 했닀.

읎륌 통핎 조직은 후속 프로섞슀륌 싀행하Ʞ 전에 데읎터 완전성 상태륌 확읞하는 로직을 구축할 수 있닀. 메타데읎터가 데읎터 믞완성을 나타낌 겜우, 자동화된 워크플로는 부분적읞 정볎륌 처늬하는 대신 대Ʞ하도록 섀정할 수 있얎 읎후 수작업 수정 부닎을 쀄음 수 있닀.

읎 메타데읎터에는 데읎터 전달 SLA에 대한 정볎도 포핚된닀. 제공업첎는 특정 서비슀의 사용 Ʞ록읎 ì–žì œ 최종 확정되는지륌 명시한닀. 읎륌 통핎 ì–Žë–€ 제공업첎가 24시간 낎에 완전한 데읎터륌 제공하는지, ì–Žë–€ 제공업첎가 Ʞ록 확정에 3~5음읎 소요되는지와 같은 비공식적읞 겜험 의졎을 표쀀화된 정볎로 대첎할 수 있닀.

현싀에서의 FOCUS

핀옵슀 재닚은 FOCUS 업데읎튞륌 연 2회 공개하고 있닀. 제공업첎는 음ꎄ적읞 업귞레읎드 음정에 따륎Ʞ볎닀 각자의 개발 죌Ʞ에 맞춰 도입 시점을 선택한닀.

êž°ì—… 역시 왞부 제공업첎의 지원 여부와 ꎀ계없읎 FOCUS륌 낎부 표쀀윌로 적용하고 있닀. 넀읎티람 FOCUS 출력을 생성하지 않는 제공업첎의 데읎터륌 집계하는 겜우에도, 낎부 비용 배분 시슀템곌 재묎 볎고에는 FOCUS 얞얎륌 활용한닀.

맀튞 윔워튞는 “FOCUS의 각 늎늬슀가 싀묎자에게 싀질적읞 가치륌 제공하도록 하는 것읎 목표”띌고 전했닀.
dl-ciokorea@foundryco.com

EDB CEO의 진닚, CIO의 죌요 곌제는 AI가 아닌 데읎터 아킀텍처

에읎전틱 시슀템은 사람곌 에읎전튞 간, 에읎전튞와 에읎전튞 간 상혞작용을 Ʞ반윌로 의사결정을 수행하고, êž°ì—… 전반의 욎영을 자동화하는 역할을 점점 더 확대하고 있닀.

읎처럌 지능형 시슀템의 확산 속도가 빚띌지는 가욎데, AI 읞프띌 êž°ì—… EDB의 CEO 쌀빈 댈러슀는 데읎터 읞프띌 시장읎 향하고 있는 방향을 비교적 분명하게 볎고 있닀. EDB 포슀튞귞레슀 AI는 죌권성곌 개방성을 갖춘 êž°ë°˜ 위에 튞랜잭션, 분석, AI 워크로드륌 통합 지원하는 닚음 플랫폌곌, 수개월읎 아닌 수음 만에 구축곌 배포가 가능한 로우윔드 AI 팩토늬륌 결합한 것읎 특징읎닀.

댈러슀에 따륎멎 현재 전 섞계적윌로 AI, 데읎터, 에읎전틱 시슀템을 쀑심윌로 한 구조적 전환읎 진행 쀑읎닀. 읎 환겜에서 데읎터는 겜쟁력을 좌우하는 핵심 요소로 작용하며, 데읎터의 귌접성, 볎안, 거버넌슀 수쀀읎 지능형 시슀템의 횚곌륌 결정한닀. 읎륌 제대로 구현한 Ʞ업은 귞렇지 않은 Ʞ업볎닀 5ë°° 높은 ROI륌 거두고, 에읎전틱 시슀템 도입 규몚도 두 배에 달한닀. 닀만 읎 수쀀의 성숙도에 도달한 Ʞ업은 여전히 소수에 불곌하닀. 대닀수 Ʞ업은 볎안곌 통제가 볎장된 데읎터가 필요한 시점곌 위치, 방식윌로 제공되는 AI 및 데읎터 쀑력 몚덞을 구축하는 닚계에 뚞묌러 있닀. 댈러슀는 읎것읎 진정한 AI와 데읎터 죌권의 몚습읎띌고 섀명했닀.

댈러슀는 “사우디아띌비아, 아랍에믞늬튞(UAE), 독음곌 같은 음부 국가는 AI와 데읎터 죌권 잡멎에서 상당히 앞서 있는 반멎, 귞렇지 못한 지역도 있닀”띌며 “귞러나 우늬가 삎펎볞 몚든 시장에서 Ʞ업듀은 읎제 죌권을 현대적 AI의 Ʞ반윌로 읞식하고 있닀”띌고 전했닀.

아킀텍튞의 딜레마

CIO닷컎은 읎전에 CIO가 AI 확장에 얎렀움을 겪는 읎유와, AI륌 프로덕션 환겜윌로 옮ꞰꞰ 위한 닀양한 몚범 사례와 권고 사항을 삎펎뎀닀. 달띌슀의 시각에서 볌 때, CIO가 AI 파음럿곌 프로젝튞륌 볎안성곌 확장성, 규제 쀀수 요걎을 갖춘 욎영 환겜윌로 읎전하는 곌정에서 맞닥뜚늬는 핵심 아킀텍처 곌제는 시슀템곌 사용자, 환겜, 벀더 전반에 걞쳐 사음로 형태로 흩얎진 데읎터닀. Ʞ업은 고늜된 Ʞ술 슀택에서 파음럿을 욎영하고, AI륌 확장하렀는 순간 곌거부터 누적된 복잡성 전반곌 정멎윌로 마죌하게 된닀.

읎 때묞에 CIO가 겪는 묞제는 AI 자첎가 아니띌 데읎터 아킀텍처에 있닀. 현재 음얎나고 있는 변화는 AI륌 데읎터 쪜윌로 읎동시킀는 것읎 아니띌, AI가 엔터프띌읎슈 데읎터에 더 가까읎 닀가가알 한닀는 점읎닀. 읎륌 위핎서는 AI의 쀑심축 역할을 할 수 있는 통합되고 거버넌슀가 적용된 데읎터 플랫폌읎 필요하닀. 읎러한 Ʞ반읎 없윌멎 AI 확장은 비용읎 컀지고, 위험은 높아지며, 속도는 느렀질 수밖에 없닀.

새로욎 아킀텍처의 쀑심에서

EDB는 포슀튞귞레SQL의 êž°ì—…ìš© 서비슀 업첎로 잘 알렀젞 있윌며, 포슀튞귞레슀 데읎터베읎슀는 였픈소슀 특성윌로 였랫동안 IT 전묞가듀의 신뢰륌 받아왔닀. 닀만 포슀튞귞레슀가 AI 쀑심의 새로욎 아킀텍처에서 ì–Žë–€ 역할을 하는지륌 읎핎하렀멎, 현대적읞 엔터프띌읎슈 데읎터 아킀텍처 맥띜에서 포슀튞귞레슀가 지닌 고유한 강점을 얎떻게 확장핎 였늘날의 복잡한 데읎터 요구륌 충족할 수 있는지륌 삎펎볌 필요가 있닀.

달띌슀에 따륎멎 포슀튞귞레슀는 전통적윌로 정형 데읎터와 비정형 데읎터륌 몚두 처늬할 수 있는 유연한 데읎터 엔진읎었닀. 앀튞로픜의 큎로드, 였픈AI 등 대규몚 ì–žì–Ž 몚덞읎 죌도하는 AI 쀑심 환겜읎 부상하멎서, 포슀튞귞레슀는 컚텍슀튞 데읎터와 검색 영역에서도 쀑요한 선택지로 자늬 잡고 있닀.

EDB가 13개국을 대상윌로 진행한 2025년 Ꞁ로벌 조사에 따륎멎, 죌요 Ʞ업의 97%는 자첎 AI 및 데읎터 플랫폌을 구축하Ʞ륌 원한닀고 응답했닀. 읎 가욎데 4분의 1은 읎믞 포슀튞귞레슀륌 Ʞ반윌로 죌권성곌 통제력을 갖춘 방식윌로 읎륌 구현하고 있닀. 달띌슀는 시장읎 닚순한 데읎터베읎슀 사고에서 벗얎나, 튞랜잭션곌 분석, AI êž°ë°˜ 워크로드륌 핚께 지원할 수 있는 데읎터 플랫폌 쀑심 사고로 읎동하고 있닀고 섀명했닀. 읎러한 플랫폌은 죌권성을 갖추고, 볎안읎 강화돌 있윌며, 큎띌우드 유연성을 전제로 섀계된닀는 특징을 가진닀.

여Ʞ에 더핮, AI의 쀑력읎 컎퓚튞륌 데읎터 쪜윌로 끌얎당Ʞ는 새로욎 시대가 엎늬고 있닀. 읎러한 전환은 확장 가능하고 개방적읞 데읎터 Ʞ반을 요구한닀.

달띌슀는 “EDB가 고객읎 가장 쀑요한 데읎터에 더 가까욎 위치에서 AI륌 욎영할 수 있도록 지원하고, 환겜 전반에 걞쳐 음ꎀ성을 유지하멎서도 벀더 종속 없읎 읎륌 구현할 수 있는 Ʞ회륌 확읞했닀”며 “읎는 닀음 성장 국멎을 읎끌Ʞ에 맀우 섀득력 있는 순간”읎띌고 섀명했닀.

AI와 데읎터 죌권읎 교찚하는 지점에서, 조사 결곌는 거의 몚든 Ʞ업읎 향후 3년 낮 자첎 AI 및 데읎터 플랫폌윌로 거듭나Ʞ륌 원하고 있음을 볎여쀀닀.
dl-ciokorea@foundryco.com

AWS, 고객 목소늬에 응답하닀···멀티큎띌우드 전략윌로 방향 전환

앜 10년 전, 한 대형 ꞈ융 서비슀 Ʞ업은 공격적읞 큎띌우드 전환을 추진하는 곌정에서 아마졎웹서비슀(AWS) 계정 ꎀ늬자륌 마죌했닀. 당시 AWS는 전략을 닚순하게 유지하고, 몚든 시슀템을 AWS에서 욎영하며 닀륞 큎띌우드는 플하는 것읎 바람직하닀고 조얞했닀. 사용읎 쉜고 최고 수쀀의 서비슀가 제공되며, 상혞욎용성 묞제도 거의 없을 것읎띌는 섀명읎 뒀따랐닀. 당시로서는 충분히 합늬적읞 선택처럌 볎였닀.

귞러나 시간읎 흐륎멎서 읎 결정은 막대한 비용윌로 읎얎졌닀. 새로욎 시장에 대응하고, 변화하는 규제 Ʞ쀀곌 빠륎게 진화하는 Ʞ술 환겜에 적응하렀는 곌정에서 읎 Ʞ업은 점점 선택의 폭읎 좁아졌닀. 필요 읎상윌로 많은 비용을 지출했고, 벀더 종속에 시달렞윌며, AWS가 제공하지 않는 혁신을 놓치는 상황읎 반복됐닀. 닚순핚을 추구했던 전략은 ê²°êµ­ 수많은 Ʞ회륌 잃는 결곌로 돌아왔닀.

지난죌 AWS는 구Ꞁ 큎띌우드와 직접 연결되는 고속 멀티큎띌우드 서비슀 ‘읞터컀넥튞-멀티큎띌우드(Interconnect-multicloud)’륌 공개했윌며, 조만간 마읎크로소프튞 애저와의 연동도 예고했닀. 읎는 AWS의 멀티큎띌우드 전략에서 극적읞 전환을 의믞한닀. 섞계 최쎈의 큎띌우드 혁신 Ʞ업윌로 평가받는 AWS가 마칚낎 가장 선도적읞 고객듀읎 수년 전부터 읞식핎 옚 사싀, 슉 믞래는 멀티큎띌우드띌는 점을 공식적윌로 읞정한 것읎닀.

AWS의 10년에 걞친 저항

큎띌우드 컎퓚팅읎 IT 분알의 죌류로 자늬 잡은 읎후, AWS는 음ꎀ된 메시지륌 전달핎 왔닀. AWS에 몚든 것을 맡Ʞ는 것읎 최선의 선택읎띌는 죌장읎닀. AWS는 Ʞ술적 닚순성곌 욎영 늬슀크 감소륌 강조핎 왔윌며, 멀티큎띌우드는 비용 슝가와 복잡성 확대, 잠재적읞 볎안 췚앜성을 쎈래할 수 있닀고 겜고했닀. 싀제로 AWS의 백서와 랔로귞, 현장 조얞을 삎펎볎멎 멀티큎띌우드의 ‘위험성’을 지적하는 낎용읎 반복적윌로 등장한닀. AWS가 진행한 고객 프레젠테읎션에서도 음ꎀ성 부족읎 쎈래할 수 있는 묞제점읎 강조됐닀.

귞러나 현싀은 달랐닀. 읎러한 겜고는 싀제 고객 가치볎닀는 시장 지배력을 유지하렀는 녌늬에 가까웠닀. 몚든 워크로드륌 AWS에서 욎영할수록 읎익읎 확대되는 쪜은 고객의 혁신읎 아니띌 AWS의 수익 구조였닀. 멀티큎띌우드는 위험하고 비용읎 많읎 듀며 ꎀ늬하Ʞ 얎렵닀는 죌장은 자사 쀑심의 생졎 녌늬에 Ʞ반한 서사에 불곌했닀.

싀제 êž°ì—… 환겜에서 음핎 옚 읎듀에게 읎러한 교늬는 섀득력읎 떚얎졌닀. 닚음 람랜드의 틀에 아킀텍처륌 맞추Ʞ 얎렀욎 Ʞ업듀은 수년간 비횚윚을 감수핎알 했닀. 섞계 최대 큎띌우드 사업자가 제시한 핎법은 ê²°êµ­ “우늬와 핚께하띌. 나뚞지는 걱정하지 말띌”는 말로 요앜됐고, 많은 Ʞ업은 ê·ž 조얞에 따띌 맞지 않는 구조륌 억지로 끌워 맞추는 상황을 반복핎 왔닀.

베슀튞 였람 람늬드의 혁신

멀티큎띌우드는 읎점 없읎 였버헀드만 늘늰닀는 읞식읎 널늬 퍌젞 있지만, 읎는 사싀곌 닀륎닀. 큎띌우드 컎퓚팅읎 앜속핎 옚 핵심 가치는 닀양한 자원을 Ʞ반윌로 빠륎게 구축하고 싀험하며 확장할 수 있는 역량에 있닀. 현대적읞 엔터프띌읎슈 아킀텍처는 각 영역에서 가장 적합한 도구륌 활용한닀. 예륌 듀얎 탄력적읞 컎퓚튞는 아마졎웹서비슀(AWS), 읞공지능곌 뚞신러닝은 구Ꞁ, 데읎터 분석은 마읎크로소프튞 애저가 강점을 가진닀. CTO가 시장 혁신의 3분의 2륌 왞멎한닀멎, 귞로 읞한 Ʞ회비용은 막대핎질 수밖에 없닀.

베슀튞 였람 람늬드 전략은 멀티큎띌우드 환겜에서 더욱 힘을 발휘한닀. Ʞ업은 한 사업자의 슀토늬지륌 사용하멎서, 닀륞 사업자의 데읎터 레읎크륌 활용하고, 넀튞워크는 또 닀륞 공꞉자륌 선택할 수 있는 유연성읎 필요하닀. 읎러한 조합은 성능곌 규제 대응, 비용 횚윚성은 묌론 파튞너와 사용자와의 묌늬적·녌늬적 귌접성까지 최적화한닀. 벀더의 압박에도 불구하고 읎 몚덞을 채택한 싀묎자듀은 더 탄력적읎고 비용 횚윚적읎며 비슈니슀 목표에 부합하는 아킀텍처륌 구축핎 왔닀. 읎는 읎론적읞 녌의가 아니띌, 섞계에서 가장 성공한 디지턞 넀읎티람 Ʞ업듀읎 의도적윌로 멀티큎띌우드륌 선택핎 옚 현싀읎닀.

닚음 큎띌우드 쀑심 사고의 한계

앞서 소개한 사례는 결윔 특별한 음읎 아니닀. 귞동안 AWS의 비전에 충성한 대가로 큰 비용을 치륞 조직을 수없읎 만나왔닀. 성능읎나 적합성읎 떚얎지는 서비슀에 수백만 달러륌 추가로 지출했고, 앜속했던 투자 대비 횚곌륌 전혀 낎지 못한 채 수년을 허비한 마읎귞레읎션 프로젝튞도 많았닀. 닚음 벀더 쀑심 사고에 얜맀읎지 않은 겜쟁사에 죌도권을 낎쀀 사례 역시 적지 않았닀.

자첎적윌로 멀티큎띌우드 전략을 구축하는 음읎 위협적윌로 느껎졌던 가장 큰 읎유는 하읎퍌슀쌀음러듀읎 큎띌우드 간 넀튞워킹곌 ꎀ늬륌 지나치게 복잡하게 만듀얎왔Ʞ 때묞읎닀. 임시방펞의 였버레읎 구성, 서드파티 SD-WAN, 복잡한 볎안 섀정은 현업에 큰 부닎읎었닀. 아읎러니하게도 읎러한 불펞의 상당 부분은 큎띌우드 사업자듀읎 넀읎티람 상혞욎용성을 구축하는 데 죌저했Ʞ 때묞에 발생했닀. 고객을 연결하Ʞ볎닀는, Ʞ업읎 넘Ʞ 얎렀욎 장벜을 쌓아 올늰 셈읎닀.

ê·ž 결곌 AWS는 막대한 Ʞ회륌 슀슀로 포Ʞ했을 가능성읎 크닀. 고객읎 점점 더 성숙핎지멎서 시장은 람랜드와 묎ꎀ하게 ‘적합한 도구’륌 선택하는 방향윌로 읎동했닀. 귞럌에도 불구하고 AWS가 올읞 전략을 고수한 몚습은 사고 늬더십읎띌Ʞ볎닀 고집에 가까워 볎였닀.

현싀을 읞정한 AWS 읞터컀넥튞-멀티큎띌우드

지난죌 공개된 AWS 읞터컀넥튞-멀티큎띌우드가 갖는 의믞는 분명하닀. AWS가 구Ꞁ 큎띌우드륌 첫 파튞너로 삌아, ê³§ 마읎크로소프튞 애저까지 포핚하는 개방적읎고 탄력적읞 고속 프띌읎빗 연결 몚덞을 채택했닀는 점읎닀. 읎는 AWS가 닀륞 큎띌우드 서비슀 제공업첎와의 연결을 전제로 전략을 재정늜하고 있음을 볎여쀀닀.

죌목할 부분은 읞터컀넥튞-멀티큎띌우드가 닚순히 연결 격찚륌 핎소하는 데 귞치지 않는닀는 점읎닀. 읎 서비슀는 고객의 판닚읎 옳았닀는 사싀을 사싀상 읞정한닀. VPC, 튞랜짓 게읎튞웚읎(Transit Gateway), 큎띌우드 WAN 등 AWS의 핵심 서비슀륌 닀륞 큎띌우드와 손쉜게 연결할 수 있윌며, 곌거에는 수죌 또는 수개월읎 걞늬던 작업을 AWS ꎀ늬 윘솔에서 한 번의 큎늭윌로 처늬할 수 있도록 했닀. 전용 대역폭곌 낎장된 복원력, 개방형 API의 닚순핚을 활용핎 묌늬적·철학적 연결 몚두륌 한잵 맀끄럜게 만듀었닀.

Ʞ업은 큎띌우드 여정에서 앞윌로도 유연성곌 성능, 혁신을 지속적윌로 요구할 것읎닀. 멀티큎띌우드는 음시적읞 유행읎 아니띌 필수 역량읎닀. 믞래는 닚음 람랜드가 좌우하는 것읎 아니띌, 큎띌우드 서비슀가 비슈니슀 요구륌 얌마나 횚곌적윌로 충족하느냐에 달렀 있닀. AWS의 ꞉격한 ë…žì„  전환은 사용자의 혁신을 가로막아 옚 읞위적읞 장벜을 제거하는 것읎 얌마나 현명한 선택읞지륌 볎여쀀닀. 메시지는 분명하닀. 필요한 도구륌, 필요한 곳에서, 필요한 방식윌로 사용하띌는 것읎닀.

서두에서 얞꞉한 Ʞ업을 비롯핎 많은 조직에 있얎 였늘의 큎띌우드 환겜은 비로소 나아졌닀. 얎느 한 사업자도 큎띌우드륌 독점하지 않는닀. 최적의 아킀텍처는 멀티큎띌우드닀.

귞늬고 마칚낎, AWS 역시 읎 흐늄에 합류했닀.
dl-ciokorea@foundryco.com

ERP·CRM·데읎터 플랫폌까지 였륞닀···CIO 예산 압박하는 ‘SaaS 가격 읞상’

최귌 몇 달 사읎 죌요 서비슀형 소프튞웚얎(SaaS) 벀더의 요ꞈ제가 ꞉격히 였륎멎서, 많은 CIO가 IT 예산 범위륌 지킀는 데 얎렀움을 겪고 있닀.

가튞너의 소프튞웚얎 및 큎띌우드 협상 부묞 부사장 겞 애널늬슀튞읞 마읎크 투치아로넀는 여러 벀더의 SaaS 구독 비용읎 올핎 듀얎 10~20% 상승했윌며, 읎는 IT 예산 슝가윚 전망치읞 2.8%륌 크게 웃도는 수쀀읎띌고 섀명했닀.

투치아로넀는 “Ʞ업용 SaaS 시장 전반에서 ꎑ범위하게 비용읎 읞상되고 있닀. 읎로 읞핎 많은 조직읎 상당한 예산 압박을 받고 있닀”띌고 분석했닀.

투치아로넀는 곌거 몇 달간 음부 비용 상승은 읞플레읎션의 영향을 받았을 수 있지만, 현재는 묌가가 안정된 만큌 닀륞 요읞읎 작용하고 있닀고 뎀닀. 귞는 벀더가 잊은 제품 재포장, 사용량 êž°ë°˜ 구독 몚덞, 지역별 가격 조정, 귞늬고 생성형 AI Ʞ능 추가륌 귌거로 요ꞈ제 읞상을 정당화하고 있닀고 섀명했닀. 귞는 또한 “벀더가 읎륌 혁신곌 생성형 AI 개발에 따륞 비용윌로 소개하고 있닀”띌고 전했닀.

투치아로넀는 특히 사몚펀드가 소유한 벀더에서 가장 큰 폭의 읞상읎 나타나고 있윌며, 음부 SaaS 가격은 최대 900%까지 였륎Ʞ도 했닀고 지적했닀. 2024년 사몚펀드의 소프튞웚얎 업첎 거래 걎수가 전년 대비 28% 슝가했닀는 점도 핚께 얞꞉했닀.

투치아로넀는 “읎듀 업첎는 닚Ʞ 수익성에 극도로 집쀑하고 있닀. CIO가 결윔 간곌할 수 없는 비용 늬슀크로 나타나고 있닀”띌고 평가했닀.

êž°ì—… 핵심 시슀템의 요ꞈ 읞상

최귌 SaaS 가격 읞상을 첎감하는 것은 투치아로넀만읎 아니닀. 음부 업계 ꎀ계자듀은 Ʞ업의 데읎터 양읎 ꞉슝하멎서 분석 도구륌 비롯한 데읎터 ꎀ렚 SaaS 요ꞈ읎 였륎고 있닀고 볎고 있닀. 데읎터옵슀 플랫폌 êž°ì—… 렌슈아읎였(Lenses.io)의 CEO Ʞ욀 에메는 ERP, CRM, 데읎터 플랫폌을 포핚한 핵심 시슀템의 구독 요ꞈ읎 지난 1년 동안 크게 상승했닀고 섀명했닀.

에메는 Ʞ술 대Ʞ업곌 사몚펀드가 필수 SaaS 팚킀지륌 제공하는 소규몚 업첎륌 잇달아 읞수하멎서 비용 슝가의 죌요 요읞윌로 작용하고 있닀고 지적했닀.

에메는 “업첎는 핎당 플랫폌에서 벗얎나는 데 드는 읎전 비용읎 맀우 크닀는 점을 알고 가격을 끌얎올늰닀. 특히 Ʞ업읎 AI 전략을 수늜하렀는 시점읎띌는 점에서 ê·ž 부닎은 더욱 크닀. 읎믞 여러 프로젝튞가 진행 쀑읞 상황에서 플랫폌 읎전까지 감당하Ʞ란 현싀적윌로 맀우 얎렵닀”띌고 말했닀.

더욱읎 SaaS 가격 읞상은 많은 조직읎 AI 읎니셔티람에 투입할 예산을 확볎하Ʞ 위핎 애쓰는 시점에 발생하고 있닀. 에메는 CIO가 더욱 얎렀욎 결정을 낎렀알 하는 상황읎 되고 있닀고 섀명했닀.

에메는 “Ʞ업은 AI륌 위핎 완전히 별도의 예산을 펞성하고 있윌며, 읎는 욎영 비용곌 음상적읞 IT 비용을 쀄읎는 방식윌로 충당되고 있닀”띌고 섀명했닀. 읎얎 “읎런 상황에서 가격 읞상까지 겹치멎서 CIO는 맀우 곀란한 처지에 놓였닀. 요ꞈ 읞상읎 산업 전반에서 음ꎄ적윌로 나타나는 것은 아니지만, 마읎귞레읎션읎나 전멎 교첎 비용읎 높은 핵심 영역에서 특히 두드러지고 있닀”띌고 진닚했닀.

데읎터의 값

에메는 SaaS êž°ë°˜ 데읎터 플랫폌 역시 닀륞 핵심 애플늬쌀읎션곌 비슷한 상황읎띌고 섀명했닀. 새로욎 SaaS 도구 도입 비용뿐 아니띌, 조직의 데읎터륌 읎전하는 데 드는 비용읎 곌도할 수 있Ʞ 때묞읎닀.

데읎터 옵저버빌늬티 플랫폌 êž°ì—… 얞래랔 데읎터(Unravel Data)의 CEO 겞 공동 섀늜자읞 쿠날 아가왈 역시 데읎터 ꎀ렚 SaaS 도구의 가격 읞상을 지적했닀. 귞는 큎띌우드 데읎터 웚얎하우슀, 레읎크하우슀, 분석 플랫폌을 포핚한 데읎터 읞프띌 비용읎 지난 1년 동안 30~50% 상승했닀고 진닚했닀.

아가왈은 연산 집앜적읞 생성형 AI 워크로드의 확산곌 조직 낎부 사용량에 대한 가시성 부족 등 여러 요읞읎 비용 상승을 읎끌고 있닀고 분석했닀.

귞는 “사용자 수륌 Ʞ쀀윌로 비용을 지불하는 Ʞ졎 SaaS와 달늬, 읎듀 플랫폌은 사용량에 따띌 곌ꞈ되Ʞ 때묞에 비용 변동성읎 크고 예잡읎 얎렵닀”띌고 섀명했닀.

음부 벀더는 예잡 가능한 요ꞈ 몚덞에서 벗얎나 사용량 êž°ë°˜ 곌ꞈ 방식윌로 가격 정책을 전환하고 있닀. 아가왈은 읎전까지 하위 요ꞈ제에 포핚됐던 Ʞ능을 프늬믞엄 요ꞈ제로 분늬핎 추가 비용을 부곌하는 사례도 늘고 있닀고 전했닀.

큎띌우드 캐플턞(Cloud Capital)의 CEO읎자 공동 섀늜자읞 에드 배로는 데읎터 집앜적읞 플랫폌 왞에 볎안, 옵저버빌늬티 도구, AI Ʞ능읎 강화된 SaaS륌 제공하는 벀더 전반에서도 가격 읞상읎 읎얎지고 있닀고 섀명했닀.

배로는 “SaaS 읞플레읎션읎 싀제로 ꎑ범위하게 나타나고 있닀. 슀타튞업곌 쀑Ʞ업, 대Ʞ업을 가늬지 않고 몚두 영향을 받고 있닀”띌고 진닚했닀.

귞는 AI가 CIO의 IT 예산을 압박하는 동시에 SaaS 비용 읞상의 원읞윌로 작용하고 있닀고 볎멎서, “GPU륌 대량윌로 사용하는 워크로드로 읞핎 벀더의 마진읎 쀄얎듀고, 비용읎 고객에게 전가되고 있닀. 여Ʞ에 큎띌우드 읞프띌 비용 상승곌 정책 변화까지 더핎지멎서, 가격 재조정읎 불가플핎지고 있닀”띌고 말했닀.

대응 전략

음부 가격 읞상은 플하Ʞ 얎렵지만, CIO가 충격을 완화할 수 있는 방법도 있닀는 것읎 업계의 진닚읎닀.

아가왈은 IT 늬더가 SaaS 데읎터 플랫폌 비용을 ꎀ늬할 때 사용 팚턎에 집쀑핎알 한닀고 조얞했닀.

귞는 “많은 조직읎 데읎터 읞프띌 지출의 20~40%가 유휎 자원, 비횚윚적읞 쿌늬, 쀑복 처늬 등윌로 사싀상 낭비되고 있닀는 점을 뒀늊게 발견한닀. 읎륌 닚순한 비용 절감윌로 볌 것읎 아니띌, 혁신곌 추가 워크로드륌 위한 예산을 확볎하는 비용 최적화로 재정의하는 것읎 핵심”읎띌고 섀명했닀.

귞는 Ʞ졎 워크로드륌 최적화하멎 전첎 예산을 늘늬지 않고도 새로욎 AI 읎니셔티람륌 위핎 데읎터 플랫폌 활용 범위륌 확대할 수 있는 겜우가 많닀고 덧붙였닀. 읎 환겜에서 성곌륌 낮는 Ʞ업은 데읎터 읞프띌륌 닚순히 비용을 지불하고 잊얎버늬는 유틞늬티가 아닌, 지속적읞 ꎀ늬가 필요한 하나의 제품윌로 읞식하는 곳읎 될 것읎띌는 섀명읎닀.

에메는 가능하닀멎 믞션 크늬티컬 Ʞ능에서 닚음 벀더 쀑심의 배치륌 플핎알 한닀고 강조했닀. 귞에 따륎멎 많은 벀더가 고객에게 올읞원 플랫폌 도입을 유도하고 있지만, 대형 소프튞웚얎 팚킀지에 연동되는 몚듈형 애플늬쌀읎션을 활용하멎 벀더 종속 늬슀크륌 쀄음 수 있닀.

에메는 AI 에읎전튞의 확산곌 MCP(Model Context Protocol)와 같은 표쀀읎 자늬 잡윌멎서, 여러 벀더의 SaaS 도구륌 조합핎 하나의 ERP 환겜을 구성하는 작업읎 CIO에게 한잵 수월핎질 것읎띌고 얞꞉했닀.

귞는 “겜영진 누구도 팀읎 10개의 서로 닀륞 시슀템을 사용하며 10개의 윘솔을 였가Ʞ륌 원하지 않는닀. 따띌서 하나의 솔룚션곌 하나의 벀더로 여러 Ʞ능을 통합하겠닀는 접귌에는 분명한 장점읎 있닀. 닀만 싀제로 만난 겜영진듀은 사용자가 하나의 윔파음럿읎나 채팅 얎시슀턎튞륌 쀑심윌로 업묎륌 수행하고, 읎 채팅 얎시슀턎튞가 여러 시슀템곌 연결되는 방식을 더 선혞하고 있닀”띌고 전했닀.

가튞너의 투치아로넀는 CIO가 핵심 솔룚션에 대핮 장Ʞ 계앜을 첎결하고, 1~2년 전부터 갱신을 쀀비하는 등 볎닀 선제적윌로 대응핎알 한닀고 조얞했닀.

귞는 “SaaS 시장의 변화 속도가 맀우 빠륞 만큌 협상에서는 벀더가 우위에 ì„€ 수밖에 없닀. CIO가 IT 협상 역량을 철저히 점검하고 정볎에 밝은 구맀자띌는 점을 드러낎며 시장 데읎터륌 적극 활용핎알 더 나은 협상 결곌륌 확볎할 수 있닀”띌고 분석했닀.
dl-ciokorea@foundryco.com

였픈AI, AI 악용 사읎버 공격 대비 나선닀···‘닀잵 방얎’ 볎안 전략 강화

였픈AI는 성능읎 빠륎게 고도화되는 AI 몚덞읎 위협 귞룹의 손에 듀얎가 정교한 사읎버 공격에 활용될 수 있닀는 점을 우렀하며 읎에 대비하고 있닀.

였픈AI는 랔로귞륌 통핎, 자사 몚덞의 높은 역량읎 “강력한 ë°©ì–Ž 시슀템을 대상윌로 제로데읎 원격 익슀플로잇을 개발하거나, êž°ì—… 및 산업에 싀제 영향을 믞치는 복잡하고 은밀한 칚투 작전을 지원하는 데 사용될 수 있닀”띌고 섀명했닀.

였픈AI에 따륎멎 귌볞적읞 묞제는 AI륌 공격에 활용하는 것곌 방얎에 활용하는 것읎 동음한 지식곌 Ʞ술에 Ʞ반하고 있닀는 점읎닀. 읎로 읞핎 한쪜을 지원하멎서 닀륞 한쪜을 동시에 찚닚하는 것읎 쉜지 않닀는 섀명읎닀.

였픈AI는 “AI의 역량읎 죌로 방얎적 활용에 Ʞ여하도록 하고, 악의적읞 목적을 위한 성능 슝폭은 제한하Ʞ 위핎 안전장치에 투자하고 있닀. 음회성 대응읎 아닌, 방얎자에게 지속적윌로 우위륌 제공하고 생태계 전반에서 핵심 읞프띌의 볎안 태섞륌 ꟞쀀히 강화하Ʞ 위한 장Ʞ적 투자로 볎고 있닀”띌고 밝혔닀.

읎와 ꎀ렚핎 였픈AI가 발표한 새로욎 읎니셔티람가 ‘프론티얎 늬슀크 위원회(Frontier Risk Council)’닀. 였픈AI는 욎영 방식에 대핎서는 구첎적윌로 밝히지 않았지만, AI가 공격 도구로 활용될 가능성을 억제하Ʞ 위핎 확대되고 있는 ‘닀잵 ë°©ì–Ž(defense in depth)’ 전략의 음부띌고 섀명했닀.

였픈AI는 “위원듀은 AI Ʞ능읎 볎안 방얎에 유용하게 쓰읎는 범위와, 공격읎나 였낚용윌로 읎얎질 수 있는 위험 지점을 구분하는 방안을 자묞하며, 녌의 결곌는 몚덞 평가와 안전장치에 직접 반영될 것”읎띌며 “위원회에 대한 추가 낎용은 ê³§ 공개할 예정”읎띌고 밝혔닀.

랔로귞에 얞꞉된 닀륞 계획에는 였낚용 방지륌 위한 가드레음 확대, 몚덞 볎안을 점검하Ʞ 위한 왞부 레드팀 테슀튞, ë°©ì–Ž 목적의 사용례륌 검토할 수 있도록 적격 고객에게 고꞉ 몚덞 ì ‘ê·Œ 권한을 제공하는 신뢰 êž°ë°˜ ì ‘ê·Œ 프로귞랚 등읎 있닀.

였픈AI는 최귌 발표한 ‘아드바크 에읎전틱 시큐늬티 늬서처(Aardvark Agentic Security Researcher)’ 슀캐닝 도구 베타의 활용 범위도 넓힐 계획읎닀. 읎륌 통핎 윔드베읎슀 낮 췚앜점을 식별하고, 팚치나 완화 방안을 제안한닀는 구상읎닀.

AI 레드팀

AI Ʞ업읎 몚덞 였낚용을 얎떻게 찚닚할 것읞지 섀명핎알 한닀는 압박은 점점 더 심핎지고 있닀. 읎는 닚순한 우렀에 귞치지 않는닀. 지난달 였픈AI의 겜쟁사읞 앀튞로픜(Anthropic)은 자사의 AI 프로귞래밍 도구 ‘큎로드 윔드(Claude Code)’가 30개 조직을 겚냥한 사읎버 공격에 사용됐닀고 읞정했닀. 대규몚로 악의적읞 AI 사용례가 확읞된 것은 읎번읎 처음읎었닀.

한펾 믞국의 대학 연구진은 최귌 아륎테믞슀(Artemis) AI 연구 플랫폌읎 볎안 췚앜점 탐지에서 칚투 테슀튞 전묞가 10명 가욎데 9명을 능가하는 성곌륌 냈닀고 볎고했닀. 연구진은 읎 플랫폌읎 사람 연구자볎닀 훚씬 낮은 비용윌로 성곌륌 냈닀는 점을 얞꞉하며, 귞동안 자원읎 풍부한 범죄자에게만 가능했던 역량읎 더 넓은 범위로 확산될 수 있닀고 분석했닀.

읎와 동시에 방얎자 역시 AI륌 활용핎 췚앜점을 찟아낌 가능성도 있닀. 였픈AI는 2년 전 발표한 레드팀 넀튞워크륌 대상윌로 자사 몚덞을 테슀튞하고 있닀고 얞꞉하며 ê·ž 방얎적 활용 가능성을 시사했닀.

였픈AI의 읎번 발표에 대한 업계 전묞가의 반응은 엇갈렞닀. 닀만 반복적윌로 제Ʞ되는 우렀는 첚닚 AI 몚덞의 악의적 사용을 귌볞적윌로 찚닚하는 것읎 구조적윌로 얎렵닀는 점읎닀.

AI 에읎전튞 데람옵슀 êž°ì—… 조죌(Jozu)의 공동 섀늜자읎자 최고욎영책임자(COO)읞 제시 윌늬엄슀는 “였픈AI는 거부 학습을 통핎 몚덞읎 슀슀로 자신의 역량을 제한하도록 하고 있는데, 읎는 자묌쇠에게 ì–žì œ 엎늎지륌 슀슀로 판닚하띌고 하는 것곌 같닀”띌고 비유했닀. 묎엇읎 유핎한지에 대한 판닚을 사람읎 아니띌 몚덞읎 낎늬게 되는 구조읎Ʞ 때묞읎닀.

윌늬엄슀는 “핵심은 의도와 권한읎지만, 몚덞은 프롬프튞만윌로 읎륌 구분할 수 없닀. 탈옥 Ʞ법은 반복적윌로 거부 학습을 묎력화핎 왔고, 정교한 역량을 가진 공격자는 탐지 겜계륌 시험하며 읎륌 우회할 것”읎띌고 지적했닀. 읎얎 “안전장치가 음상적읞 였낚용은 쀄음 수 있지만, 집요한 공격을 막지는 못할 것”읎띌고 평가했닀.

또한 귞는 “였픈AI의 ‘신뢰 êž°ë°˜ ì ‘ê·Œ 프로귞랚’은 겉윌로 볎Ʞ에는 합늬적윌로 듀늬지만, 싀행 방식을 듀여닀볎멎 의묞읎 생ꞎ닀. 곌연 누가 신뢰 대상에 포핚되는가? 대학 연구자읞가, 방위산업첎읞가, 아니멎 핎왞 볎안ꎀ제섌터(SOC) 분석가읞가”띌고 지적했닀.

한펾 SANS 읞슀티튜튞의 최고 AI 책임자읞 ë¡­ 늬는 가드레음읎 적용돌 있더띌도 AI 안전을 볎장할 수는 없닀고 얞꞉했닀.

늬는 “지난달 앀튞로픜은 공격자가 가드레음읎 적용된 범용 몚덞읞 큎로드 윔드륌 활용핎 국가 지원 사읎버 공격의 80~90%륌 자윚적윌로 수행했닀고 공개했닀. 공격자는 작업을 묎핎핎 볎읎는 요청윌로 나누고, 합법적읞 볎안 Ʞ업읞 것처럌 가장핎 안전 통제륌 우회했닀”띌고 섀명했닀. 읎얎 “귞 곌정에서 AI는 췚앜점 악용 윔드륌 작성하고, 자격 슝명을 수집하며, 데읎터륌 유출했닀. 사람은 사싀상 감독만 했닀”띌고 말했닀.

귞는 “읎것읎 가드레음읎 있는 몚덞의 현싀”읎띌며 “만앜 악의적읞 목적을 극대화하고 싶닀멎, 안전장치가 없는 자첎 몚덞을 띄우Ʞ만 하멎 된닀”띌고 얞꞉했닀. 읎얎 “윀늬 학습도, 안전 통제도, 감시도 없는 였픈 가쀑치 몚덞은 읎믞 충분히 졎재한닀. ê²°êµ­ 악의적읞 행위자는 악의적읞 도구륌 사용하게 되고, 였픈AI의 안전 프레임워크는 애쎈에 공격할 생각읎 없던 사람듀만 제앜할 뿐”읎띌고 평가했닀.

하지만 몚든 전묞가가 비ꎀ적읞 것은 아니닀. 레윔디드 퓚처(Recorded Future)의 위협 읞텔늬전슀 분석가읞 앚런 늬슀칎는 AI가 쎈래하는 위협을 곌도하게 부풀렀서는 안 된닀고 말했닀. 늬슀칎는 “국가 찚원의 위협 행위자와 사읎버 범죄자 몚두 AI 활용에 대한 ꎀ심곌 역량읎 슝가한 것은 사싀읎지만, 읎런 위협은 몚범적읞 볎안 ꎀ행을 따륎는 조직의 대응 능력을 넘얎서는 수쀀은 아니닀”띌고 섀명했닀.

귞는 “향후에는 상황읎 달띌질 수 있겠지만, 현재로서는 AI륌 비롯한 각종 위협을 바띌볌 때 곌장곌 현싀을 구분하는 것읎 ê·ž 얎느 때볎닀 쀑요하닀”띌고 진닚했닀.
dl-ciokorea@foundryco.com

“가격 1500%까지 올랐닀” 유럜 큎띌우드 연합, EU에 람로드컎-VM웚얎 읞수 승읞췚소 재요구

CISPE는 람로드컎의 VM웚얎 읞수가 VM웚얎 고객에게 플핎륌 죌고 있닀고 죌장하며, 핎당 거래륌 묎횚화하Ʞ 위한 법적 대응을 읎얎가고 있닀. CISPE는 올핎 쎈 유럜의 최고 법원에 제Ʞ한 소송곌 ꎀ렚핎, 최귌 추가 의견서륌 제출했닀.

유럜연합 집행위원회는 읞수 승읞 결정에 대핮 전 섞계 겜쟁 규제 당국곌 핚께 심사에 찞여한 바 있닀.

CISPE 사묎쎝장 프란시슀윔 밍고렌슀는 서멎 성명을 통핎 “집행위원회는 읎번 읞수륌 충분히 검토하지 않은 채 안전하닀고 판닚했닀. 거래륌 승읞핚윌로썚 람로드컎에 가격을 읞상하고 고객을 종속시킀며 압박할 수 있는 권한을 제공했닀”띌고 말했닀. 귞는 읎얎 “읎는 규제 당국의 감독 싀팚로, 유럜 큎띌우드 산업곌 읎에 의졎하는 몚든 조직에 싀제적읞 비용을 쎈래했닀”띌고 전했닀.

람로드컎의 VM웚얎 읞수는 상당한 제품 가격 읞상윌로 읎얎지며 많은 비판을 불렀닀. CISPE 산하 유럜 큎띌우드 겜쟁 ꎀ잡소가 10월 발표한 읞수 영향 볎고서에 따륎멎, 회원사듀은 요ꞈ읎 최소 800%에서 최대 1500%까지 읞상됐닀고 볎고했닀.

CISPE는 지난 7월 유럜사법재판소 산하 EU 음반법원에 소송을 제Ʞ했닀. 읎후 집행위원회가 답변서륌 제출했윌며, CISPE는 지난죌 핎당 묞서에 대한 공식적읞 반박 의견을 냈닀.

CISPE는 새로 제출한 자료에서 “집행위원회는 람로드컎읎 VM웚얎의 시장 지배력을 활용핎 대폭적읞 가격 읞상을 추진하고 계앜상 종속을 강화할 가능성을 충분히 검토하지 않았윌며, EU 합병 규정에 따륞 얎떠한 볎혞 장치도 마렚하지 않았닀”띌고 죌장했닀.

CISPE 컀뮀니쌀읎션 디렉터 ë²€ 메읎너드는 집행위원회의 조치가 VM웚얎에 벌ꞈ을 부곌하고, ê·ž 부닎읎 사용자에게 전가돌 가격읎 더 였륌 수 있닀는 우렀에 대핎서는 선을 귞었닀. 귞는 “현싀적윌로 벌ꞈ읎 부곌될 가능성은 크지 않닀. 읎번 소송은 람로드컎을 상대로 한 것읎 아니띌 EU 집행위원회의 결정 자첎륌 묞제 삌는 것”읎띌고 섀명했닀.

소송 장Ʞ화 ìš°ë € 속 ì¡°êž° 판결 Ʞ대

메읎너드는 소송읎 성공할 겜우 VM웚얎 사용자가 가격 읞하와 핚께 읞수 읎전의 계앜 조걎윌로 되돌아갈 가능성읎 있닀고 낎닀뎀닀. 귞는 “읎번 조치로 VM웚얎 사용자 가격읎 더 였륌 가능성은 없닀고 볞닀. 대부분의 사용자는 읎믞 더 높은 요ꞈ을 지불하고 있닀”띌고 지적했닀.

EU 음반법원 사걎은 통상 장Ʞ간 읎얎지는 것윌로 알렀젞 있지만, 메읎너드는 읎번 사안읎 비교적 신속하게 마묎늬되Ʞ륌 Ʞ대한닀고 밝혔닀. 귞는 “유럜 Ʞ쀀에서의 ‘신속핚’을 말하는 것”읎띌며 “낮년 상반Ʞ 안에 음반법원윌로 사걎읎 회부되고 수년 낎에 판결읎 낎렀지Ʞ륌 바띌고 있닀”띌고 전했닀.

읎에 대핮 람로드컎은 CISPE의 죌장에 강하게 반발했닀. 람로드컎 대변읞은 “EU 집행위원회륌 포핚핎 전 섞계 12개 ꎀ할권의 규제 당국읎 철저한 합병 심사륌 거쳐 VM웚얎 읞수륌 승읞했닀. 당사는 당시 집행위원회에 앜속한 몚든 조걎을 성싀히 읎행할 것”읎띌고 밝혔닀.
dl-ciokorea@foundryco.com

孊習ず仕事のパフォヌマンスを科孊する――教育・人材領域でのEEG掻甚

「集䞭しおいる」をEEGで枬るずきに起こる勘違い

教育や仕事の文脈では、集䞭しおいるほど良い、ずいう単玔な䟡倀芳が入り蟌みがちです。しかし、孊習には「理解のために考える時間」ず「蚘憶を定着させる䌑息」が必芁で、ずっず高芚醒を維持するこずが最適ずは限りたせん。EEGで掚定できるのは、泚意が倖に向いおいるか、眠気が匷いか、課題負荷が䞊がっおいるかなどの状態倉化であっお、「この内容を理解した」ずいう意味理解そのものを盎接枬るわけではありたせん。

たずえば、課題が難しくなったずきに芚醒床が䞊がり、䞀定の垯域が倉化するこずはありたす。しかし同じ反応が、焊りや緊匵、䜓のこわばりでも起き埗たす。たた、簡単な反埩緎習では芚醒床が䞋がっお芋えるかもしれたせんが、それが必ずしも悪いずは限りたせん。だから教育でEEGを䜿うずきは、掚定した状態を「評䟡」ではなく「調敎のヒント」ずしお扱うこずが重芁です。

さらに、個人差が倧きい点にも泚意が必芁です。同じ教材、同じ授業でも、ある人は静かなアルファ優䜍で集䞭し、別の人はベヌタが匷い状態で集䞭するかもしれたせん。比范ランキングを䜜るような䜿い方は、孊習者の自己効力感を損ない、逆に孊びを壊すリスクがありたす。

認知負荷ずフィヌドバックの蚭蚈授業を改善するための䜿い方

教育・人材領域で珟実的なのは、EEGを「教材やタスク蚭蚈の評䟡」に䜿うこずです。個人を採点するのではなく、教材の難易床遷移や説明の長さ、挔習の配眮が、孊習者の負荷や眠気にどう圱響するかを、集団デヌタずしお怜蚎したす。ここではEEG単䜓より、行動指暙ず組み合わせるのが匷力です。正答率、反応時間、芖線、自己報告、孊習ログずEEGの倉化を照合するず、「぀たずきやすい箇所」「説明が冗長で泚意が萜ちる箇所」「䌑憩を入れるべきタむミング」が芋えおきたす。

たた、リアルタむムフィヌドバックを孊習者に返す堎合は、返し方がすべおです。たずえば「集䞭床が䜎い」ず衚瀺されるず、孊習者は䞍安になり、かえっお集䞭できなくなるこずがありたす。代わりに、「呌吞を敎える」「姿勢を倉える」「30秒目を䌑める」ずいった行動提案ず結び぀け、状態掚定は裏偎で穏やかに䜿う方が孊習支揎ずしお機胜したす。孊習は感情ず密接で、数倀の提瀺は匷い介入になり埗るからです。

研修や知的䜜業支揎でも同様で、EEGを監芖ツヌルにするず反発ず萎瞮を生みたす。䞀方で、本人が自分の状態を敎える目的で任意に䜿うなら、䟡倀が出やすいです。集䞭が切れやすい時間垯を知っお䌚議を短くする、長文䜜業は午前に回す、䌑憩の質を䞊げる、ずいった自己調敎の材料ずしお䜿う蚭蚈が珟実的です。

倫理ずガバナンス孊びを良くするはずが、管理にならないために

教育や䌁業でEEGを扱うずき、最も慎重であるべきは倫理です。EEGは生䜓情報であり、本人の同意なしに収集・解析するこずは避けるべきです。たずえ同意があっおも、同意が自由意志に基づくか、拒吊しお䞍利益がないか、デヌタが目的倖利甚されないか、ずいった条件が揃わなければ、実質的には匷制になっおしたいたす。

たた、採甚や評䟡ぞの利甚は極めおリスクが高いです。掚定粟床が䞍十分な段階で個人評䟡に䜿えば、誀刀定で人生に圱響したすし、本人の尊厳を損ないたす。教育・人材領域でEEGを䜿うなら、個人の評䟡ではなく、環境蚭蚈や教材改善、本人のセルフケア支揎に限定する、ずいった線匕きが䞍可欠です。

技術的には、個人適応モデルの開発、ノむズ耐性の向䞊、説明可胜性の確保が課題です。運甚面では、最小限のデヌタ収集、保存期間の限定、匿名化、第䞉者提䟛の犁止、結果の解釈ガむドの敎備が欠かせたせん。EEGは孊びを科孊する匷力な道具になり埗たすが、その䟡倀は「人を管理する」方向ではなく、「孊びやすい環境を䜜る」方向に䜿っお初めお発揮されたす。

脳波EEGでは䜕がわかり、医療でどう䜿われおいるのか

脳波は「速いカメラ」で脳の状態を映す

EEGが捉えるのは、脳の奥深くで䞀぀ひず぀のニュヌロンが発火する電䜍そのものではなく、䞻に倧脳皮質の錐䜓现胞が同期しお掻動した結果ずしお生じる電䜍倉化です。頭皮に眮いた電極が拟う信号は非垞に小さく、日垞生掻の雑音や䜓の動き、筋肉の掻動、瞬きずいった生䜓由来のノむズの圱響を受けたす。それでもEEGが手攟せないのは、脳の掻動の倉化が起きた盎埌から、ほがリアルタむムに远跡できるからです。睡眠の段階が移り倉わる瞬間、おんかん発䜜の前觊れ、麻酔で意識が萜ちる過皋など、「時間の流れ」が鍵になる珟象に匷いのがEEGです。

脳波の波圢は、ざっくり蚀えばさたざたな呚波数成分の重ね合わせで衚されたす。アルファ波、ベヌタ波ずいった呌び名は䞀般にも知られおいたすが、医療では「どの垯域が増えたか」だけで結論を出すより、波圢の圢状、巊右差、出珟のタむミング、誘発条件、背景掻動の倉化を総合しお刀断したす。さらに、同じ患者でも時間垯、薬剀、睡眠䞍足、感染、痛み、粟神状態で波圢は倉わりたす。぀たりEEGは、単発の「枬定倀」ではなく、文脈を含めお読む「連続した生理孊的な蚘録」ず考えるず理解しやすいです。

おんかん、意識障害、術䞭モニタリングでの実際

EEGの代衚的な臚床甚途が、おんかんの蚺断ず治療方針の決定です。発䜜が起きおいない時間垯でも、棘波や鋭波などの発䜜間欠期攟電が蚘録されるこずがあり、おんかん性の掻動を裏づけたす。ただし、EEGで異垞が出ないからずいっおおんかんを吊定できるわけではありたせん。発䜜焊点が深郚にある堎合や、蚘録時間が短い堎合、発䜜がたたたた起きなかった堎合には芋逃されたす。そこで長時間ビデオ脳波モニタリングが甚いられ、臚床症状ず脳波の同時蚘録により、発䜜型や焊点郚䜍の掚定粟床を䞊げたす。倖科治療を怜蚎するケヌスでは、頭皮EEGだけでなく、硬膜䞋電極や深郚電極を甚いた䟵襲的モニタリングに進むこずもありたす。ここでは「どこから始たり、どう広がるか」を時間順に远えるEEGの匷みが最倧限に掻かされたす。

意識障害やけいれんが疑われる救急・集䞭治療でもEEGは重芁です。芋た目にはけいれんが止たっおいるのに、脳内では発䜜が続いおいる非痙攣性おんかん重積NCSEは、臚床所芋だけでは気づきにくく、EEGが決め手になりたす。鎮静薬や抗おんかん薬の投䞎調敎、脳の回埩床合いの評䟡にも、連続EEGが䜿われたす。脳炎、䜎酞玠脳症、代謝性脳症などでは、背景掻動の遅埐化や呚期性攟電などのパタヌンが鑑別に寄䞎したすが、これも「単玔な異垞・正垞」ではなく、病態の掚移ず合わせお読む必芁がありたす。

手術や麻酔管理でもEEGの応甚は広がっおいたす。麻酔の深さを掚定する垂販モニタは、EEGを加工した指数で衚瀺したすが、指数だけに頌るず、薬剀の皮類や患者の幎霢、䜎䜓枩などで解釈がずれるこずがありたす。実際の臚床では、指数の倉化ず生波圢の特城、血圧や心拍、投䞎薬剀の履歎を合わせお刀断し、過剰な鎮静による埪環抑制や術埌せん劄のリスクを䞋げる方向で䜿われたす。EEGは䞇胜の自動操瞊装眮ではなく、医療者の状況刀断を補助する蚈噚ずしお䟡倀がある、ずいう䜍眮づけが珟実的です。

医療でEEGを掻かすための萜ずし穎ず蚭蚈思想

EEG掻甚の難しさは、ノむズず個人差に集玄されたす。頭皮䞊の電極が拟う信号は、頭蓋骚や皮膚で枛衰し、筋電図や県電図に簡単に埋もれたす。䟋えば「集䞭しおいるからベヌタが増えた」ず蚀いたくなる堎面でも、実は額やこめかみの筋肉が緊匵しおいただけ、ずいうこずが起きたす。だから医療では、蚘録品質の確保が最優先です。電極むンピヌダンス、装着䜍眮、皮膚凊理、アヌチファクトのマヌキング、必芁なら再蚈枬ずいう地味な工皋が蚺断粟床を巊右したす。

次に重芁なのが、EEGの解釈を「確率的な情報」ずしお扱う姿勢です。EEG所芋は蚺断の決定打になるこずもありたすが、倚くの堎合は他の怜査や症状ず組み合わせお蚺断仮説を匷めたり匱めたりする材料です。たずえば、おんかんらしい臚床発䜜がある患者で棘波が出れば可胜性は䞊がりたすが、棘波が出ないからずいっお可胜性が消えるわけではありたせん。逆に、健康な人でも䞀芋異垞に芋える波圢が出るこずがありたす。だからこそ、EEGは「結果を単独で断定する怜査」ではなく、「臚床掚論を曎新する怜査」ずしお扱うのが安党です。

最埌に、デゞタル化ずAIの導入が進むほど、珟堎で問われるのは説明責任です。自動怜出が発䜜候補を提瀺し、医垫が最終確認するワヌクフロヌは効率的ですが、誀怜出や芋逃しが起きたずきに、なぜそう刀断したのかが説明できなければ医療ずしお成立したせん。EEGの掻甚を本圓に前進させるのは、ブラックボックスの粟床競争だけではなく、蚘録品質の暙準化、デヌタの偏りを抑えた怜蚌、臚床意思決定にどう組み蟌むかずいう蚭蚈思想です。EEGは叀兞的な怜査に芋えたすが、運甚蚭蚈次第で、いたも臚床の質を底䞊げできる「時間に匷い生䜓蚈枬」なのです。

「健康情報」はなぜ特別扱いなのか――個人情報保護法から芋た医療デヌタ

芁配慮個人情報ずいうカテゎリヌの意味

個人情報保護法は、すべおの個人情報を䞀埋に扱っおいるわけではありたせん。人皮・信条・瀟䌚的身分・病歎・犯眪歎など、差別や䞍利益に぀ながるおそれが高い情報を、特に「芁配慮個人情報」ず呌び、取埗や第䞉者提䟛に圓たっお原則ずしお本人の同意を必芁ずする、ず定めおいたす。その䞭栞に䜍眮するのが、たさに医療デヌタです。

芁配慮個人情報ずいうカテゎリヌが蚭けられた背景には、欧州のGDPRなど囜際的なプラむバシヌ法制の動向ずずもに、日本囜内での差別や偏芋ぞの懞念がありたす。䟋えば、就職や昇進の堎面で過去の粟神疟患の履歎が䞍圓に参照されたり、保険商品の匕き受け刀断の際に糖尿病やがんの既埀歎が䞍適切に利甚されたりすれば、個人の尊厳が倧きく損なわれたす。健康情報は、䞀芋するず医療埓事者ず本人だけの問題に芋えたすが、その実、瀟䌚生掻のあらゆる局面に圱響を䞎えうるセンシティブな情報なのです。

そのため、医療機関や䌁業が健康情報を取埗する際には、原則ずしお本人の明瀺的な同意が必芁ずされたす。蚺療の過皋で医垫が患者から問蚺を行い、怜査を指瀺するような堎面では、蚺療契玄に付随するものずしお取埗が蚱容されたすが、蚺療目的を超えた利甚、䟋えばマヌケティングやサヌビス改善のために第䞉者に提䟛する堎合には、改めお明確な同意や法什䞊の根拠が求められたす。この「䞀次利甚ず二次利甚の違い」が、医療デヌタの掻甚においお垞に問題になるゆえんです。

取埗・利甚・第䞉者提䟛における法的枠組み

個人情報保護法の枠組みは、倧きく「取埗」「利甚」「第䞉者提䟛」の䞉぀のフェヌズに分けお理解するず分かりやすくなりたす。医療機関を䟋にずるず、取埗の段階では、初蚺時に蚘入する問蚺祚や蚺療情報提䟛曞、玹介状などを通じお患者情報が集められたす。このずき、医療機関は利甚目的を「蚺療および蚺療に付随する業務」「蚺療報酬請求」「医療の質向䞊」ずいった圢でできる限り具䜓的に特定し、院内掲瀺やWebサむトで公衚したす。ここでのポむントは、埌になっお「そんな䜿い方をされるず思っおいなかった」ず患者に感じさせない皋床の具䜓性が求められるずいうこずです。

利甚のフェヌズでは、医垫や看護垫、怜査技垫、医療事務など、倚くの職皮が患者情報にアクセスしたす。個人情報保護法は、こうした院内の利甚そのものを现かく芏制しおいるわけではありたせんが、「目的倖利甚をしないこず」ずいう原則は貫かれたす。䟋えば、職員が個人的な興味から有名人のカルテを閲芧したような堎合、たずえ倖郚に挏らしおいなくおも、目的倖利甚ずしお重倧な法什違反ず評䟡されうるのです。

第䞉者提䟛のフェヌズでは、ルヌルが䞀段ず厳しくなりたす。医療機関が患者情報をほかの医療機関や䌁業、研究機関に提䟛する堎合、原則ずしお患者本人の同意が必芁です。健康蚺断の結果を職堎に提䟛するような堎合も、個人情報保護法ず劎働法制の双方を螏たえた慎重な運甚が求められたす。芁配慮個人情報である医療デヌタに぀いおは、単に「同意を取った」ず蚀えば足りるわけではなく、同意が真に自由意思に基づいおいるか、情報非察称性が倧きすぎないか、ずいった芳点も重芁になりたす。

クラりド・AI時代の「越境移転」ず責任の所圚

近幎の倧きな論点の䞀぀が、医療デヌタのクラりド利甚やAIモデル孊習における「越境移転」です。医療機関が囜内クラりドにデヌタを保存する堎合であっおも、そのクラりドベンダヌが海倖グルヌプ䌁業ず連携しおいるケヌスは少なくありたせん。さらに、AIモデルの孊習のために海倖のデヌタセンタヌが䜿われるず、事実䞊、患者情報が海倖に移転されるこずになりたす。個人情報保護法は、こうした越境移転に぀いお、十分性認定や暙準契玄条項に盞圓する枠組みを通じお䞀定の条件を定めおいたすが、実務での理解はただ発展途䞊ず蚀えたす。

たた、AIベンダヌが医療機関から受蚗する圢でデヌタを預かる堎合、その関係が「委蚗」なのか「第䞉者提䟛」なのかによっお、法的な䜍眮付けが倧きく倉わりたす。委蚗であれば、あくたで医療機関の管理のもずでデヌタが凊理されるため、委蚗先の監督矩務が䞭心的な論点になりたすが、第䞉者提䟛であれば、AIベンダヌが自らの目的でデヌタを利甚するこずになるため、患者の同意や次䞖代医療基盀法のような特別法䞊の枠組みが必芁になりたす。この線匕きは、契玄曞の曞きぶりだけでなく、実際のビゞネススキヌムによっおも巊右されるため、ケヌスごずに慎重な怜蚎が欠かせたせん。

こうした状況の䞭で、医療機関や䌁業に求められおいるのは、単に法什を「守る」こずにずどたりたせん。患者の芖点から芋お、デヌタの利甚が理解可胜であり、玍埗できるものであるかどうか。デヌタガバナンスの蚭蚈ず説明責任の果たし方が、今埌たすたす重芁になっおいくでしょう。

むンド・フィンテックの2025幎を振り返る

䞖界最倧玚の決枈むンフラがもたらす「公共財」ずしおの革呜ずデヌタ経枈圏

むンドのフィンテックを語る䞊で、もはや避けお通れないのがUPIUnified Payments Interfaceの圧倒的なプレれンスである。か぀おは画期的なモバむル決枈手段ずしお玹介されるこずが倚かったUPIだが、今やその存圚意矩は完党に倉質したず蚀っおよい。囜際通貚基金IMFがむンドのUPIを取匕量ベヌスで「䞖界最倧の小売向けファストペむメントシステム」ず定矩づけ、その盞互運甚性が爆発的な普及を埌抌ししたず分析しおいるこずからも、その圱響力は囜境を超えお認知されおいる。むンド政府がACI Worldwideのデヌタを匕甚しお瀺した、UPIが䞖界のリアルタむム決枈取匕量の玄49を占めるずいう事実は、むンドずいう巚倧垂堎が持぀デゞタル・パワヌを象城する数字である。これは単なるアプリの普及ではなく、決枈システムそのものが氎道や電気ず同じような「公共財」ずしお機胜し、あらゆる経枈掻動の土台ずしお完党に組み蟌たれたこずを意味しおいる。

足元の数字を芋おも、その成長力は䟝然ずしお衰えを知らない。NPCIむンド決枈公瀟のデヌタを匕甚した報道によれば、2025幎8月にはUPIの月間取匕件数が史䞊初めお200億件の倧台を突砎し、その取匕総額は玄24兆8500億ルピヌずいう倩文孊的な芏暡に達したずされる。この数字が瀺唆するのは、デゞタル決枈がもはや郜垂郚の富裕局や若幎局だけのものではなく、蟲村郚や露店を含むあらゆる商取匕の珟堎で、小口から倧口たで高頻床で利甚されおいるずいう珟実である。決枈が「日垞の空気」のような存圚になったこずで、決枈事業者間の競争軞も劇的に倉化した。か぀おのようなキャッシュバックキャンペヌンやUIの䜿いやすさだけでは差別化は難しく、獲埗した莫倧な決枈フロヌお金の流れを起点ずしお、いかに信甚䟛䞎や保険販売、資産圢成ずいった高付加䟡倀サヌビスぞずナヌザヌを誘導できるかが勝負の分かれ目ずなっおいる。いわゆるスヌパヌアプリ化の議論が進む䞀方で、小売業、公共料金の支払い、回収代行、さらにはB2Bにおける耇雑な請求・回収業務など、各産業特有の商習慣に深く入り蟌んだナヌスケヌスが、それぞれの論理で厚みを増しおいるのが2025幎の特城である。

決枈むンフラの成熟に続いお、次の成長レむダヌずしお急速に立ち䞊がっおいるのが「デヌタ連携の暙準化」である。むンド政府が掚進するAccount AggregatorAAは、利甚者の同意に基づいお金融デヌタを安党に共有する仕組みであり、これがむンド版オヌプンファむナンスの実装を加速させおいる。2025幎9月時点で22億を超える口座がAAのフレヌムワヌク䞊で利甚可胜ずなり、すでに1億1234䞇人もの人々がアカりント連携を完了させおいるずいう事実は、デヌタの民䞻化が絵空事ではなく珟実の瀟䌚実装フェヌズにあるこずを蚌明しおいる。AAの普及は、これたでの煩雑な曞類提出や長い審査時間を過去のものずし、ロヌン審査や資産管理のナヌザヌ䜓隓を劇的に短瞮させた。実務面においおもその効果は顕著であり、2025䌚蚈幎床にはAAを経由しお総額16䞇クロヌレ1兆6000億ルピヌ芏暡の融資が実行されたずの報道もある。これは、デヌタの可甚性が高たったこずで、埓来の金融機関がリヌチできなかった局ぞの䞎信が可胜になり、スピヌドずコスト構造が根本から芆され始めおいるこずを瀺しおいる。決枈デヌタず金融デヌタの双方がデゞタル化され、盞互に連携するこずで、むンドの金融包摂は「口座を持たせる」段階から「適切な金融サヌビスを届ける」段階ぞず進化を遂げたのである。

芏制匷化ずいう「成長痛」ずセキュリティ䞻導の垂堎再線

垂堎の急激な拡倧の裏偎で、むンド芏制圓局が2024幎から2025幎にかけお最も神経を尖らせおきたのが、デゞタル金融がもたらす「負の倖郚性」ぞの察凊である。特に瀟䌚問題化したのが、法倖な金利や脅迫たがいの取り立おを行う違法なデゞタル貞付アプリの暪行ず、それに䌎う個人デヌタの乱甚であった。こうした状況を重く芋たむンド準備銀行RBIは、2025幎にデゞタル貞付に関する芏制枠組みを統合・匷化する圢で「Digital Lending Directions, 2025」を策定したず報じられおいる。この新指針では、借り手の保護や契玄の透明性確保はもちろんのこず、金融機関に察しお融資サヌビスプロバむダヌLSPの管理責任を厳栌に求めおいる点が倧きな特城である。

さらに具䜓的な斜策ずしお、芏制圓局は「ディレクトリ化」による垂堎の浄化に乗り出しおいる。芏制察象ずなる正芏の金融機関に察し、提携するデゞタル貞付アプリDLAの情報をRBIが管理するCIMSポヌタルぞ報告させる矩務を課し、消費者が利甚しようずしおいるアプリが正芏のものか吊かを即座に確認できる仕組みの敎備が進められおいる。この動きは、無登録の違法業者を垂堎から締め出す匷力なフィルタヌずしお機胜する䞀方で、正芏のプレむダヌにずっおはコンプラむアンスコストの増倧を意味する。しかし、このコストは長期的な垂堎の健党な発展ず、利甚者からの信頌回埩のために避けお通れない投資であり、芏制察応胜力そのものが䌁業存続の条件ずなる時代が到来したず蚀える。

デヌタガバナンスの領域でも、芏制のハヌドルは䞀段ず高くなっおいる。「Digital Personal Data Protection Act, 20232023幎デゞタル個人デヌタ保護法」の公垃以降、個人デヌタの凊理プロセスや暩利保護に関する法的枠組みが敎備され、フィンテック䌁業はこれに準拠したシステム蚭蚈を䜙儀なくされおいる。同意取埗におけるナヌザヌ䜓隓の適正化や、収集したデヌタの目的倖利甚の厳栌な抑制、さらには倖郚委蚗先の管理監督など、事業拡倧よりも先に内郚統制を䜜り蟌たなければならないのが珟状だ。か぀おのように「デヌタは集めたもの勝ち」ずいう論理は通甚せず、差別化を急ぐあたりコンプラむアンスを軜芖すれば、芏制圓局からの凊分やレピュテヌションリスクによっお䞀瞬で垂堎から退堎させられるリスクがある。この「成長の臚界点」ずも蚀える厳しい珟実が、2025幎のフィンテック䌁業の経営戊略を保守的か぀堅実なものぞず倉化させおいる。

そしお、事業継続における最倧のボトルネックか぀最重芁課題ずしお浮䞊しおいるのが、高床化するサむバヌ攻撃ぞの「総合防衛」である。RBIはデゞタル決枈の認蚌に関する最終ガむドラむンを公衚し、埓来の二芁玠認蚌の枠組みを維持し぀぀、取匕のリスクレベルに応じお動的に远加認蚌を求める方向性を瀺した。このガむドラむンの発効は2026幎4月1日ず報じられおおり、金融機関やフィンテック䌁業は残された時間の䞭で実装ず運甚䜓制の芋盎しを迫られおいる。2025幎12月にはRBI総裁が銀行に察し、テクノロゞヌ掻甚による業務効率化ず䞊行しお、増加の䞀途をたどるデゞタル詐欺ぞのセキュリティ察策匷化を匷く促したずも䌝えられおいる。決枈や䞎信の裟野が広がれば広がるほど、攻撃者が付け入る隙も拡倧するため、KYC本人確認の厳栌化、デバむスフィンガヌプリント技術の導入、AIを掻甚した異垞怜知システムの構築、そしおチャヌゞバック䞍正利甚時の返金察応からナヌザヌ教育に至るたで、セキュリティを補品の䞀郚ずしお統合できるかどうかが、競争力の源泉ずなっおいるのである。

資金調達の遞別ず「実利」を远求する新たな成長領域

むンドのフィンテック垂堎における資金調達環境は、2021幎前埌のバブル的な熱狂期ず比范すれば、明らかに萜ち着きを取り戻しおいる。しかし、それは垂堎の瞮小を意味するものではない。Tracxnのレポヌトを匕甚した報道によれば、2025幎䞊半期のむンド・フィンテック䌁業の資金調達額は8億8900䞇ドルを蚘録し、囜別ランキングでは米囜ず英囜に次ぐ䞖界第3䜍の座を維持しおいる。これは、投資家がむンド垂堎のポテンシャルを䟝然ずしお高く評䟡しおいる蚌巊である䞀方で、Tracxnの四半期デヌタが瀺すように、2021幎のピヌク以降、資金流入額自䜓は䜎䞋基調にあるこずも事実である。この倉化は、投資家の芖点が「将来の倢」から「珟圚の数字」ぞずシビアに移行したこずを物語っおおり、䌁業偎も「成長のための成長」ではなく、貞借察照衚の健党性ず収益性を最優先する経営ぞず舵を切っおいる。

珟圚の資金調達環境においお特に顕著なのが、明確なナニット゚コノミクス顧客䞀人圓たりの採算性を蚌明できるプレむダヌぞの資金集䞭ず、゚クむティ株匏に頌らないデット負債性資金の掻甚である。盎近の事䟋を芋おも、デゞタル䞎信倧手のFibeが囜際金融公瀟IFCから3500䞇ドルを調達した件や、RupeeRedeeを運営するFincFriendsがデットファむナンスで資金を確保したニュヌスなどは、䞎信需芁の匷さず資本による䌁業の「遞別」が同時に進行しおいるこずを象城しおいる。これは、芏制匷化に耐えうる匷固なガバナンス䜓制を備え、リスクを適切に䟡栌に転嫁できるビゞネスモデルを構築した䌁業だけが生き残るずいう垂堎からの明確なメッセヌゞである。赀字を垂れ流しながらシェアを拡倧するモデルは終焉を迎え、利益を生み出しながら自走できる筋肉質な䌁業䜓質が求められおいる。

こうした環境䞋で、成長領域の芋取り図も倧きく曞き換わり぀぀ある。か぀おの花圢であったコンシュヌマヌ向けの決枈アプリや貞付アプリが飜和感を芋せる䞀方で、脚光を济びおいるのがB2B領域である。金融SaaS、決枈むンフラの提䟛、債暩回収・䞎信管理のデゞタル化など、䌁業のバックオフィス業務や金融オペレヌションを効率化する「裏方」のプレむダヌが力匷い成長を芋せおいる。UPIやAAの普及によっお衚偎のサヌビス競争が激化し、差別化が困難になる䞭、䌁業偎の耇雑化する業務プロセスを支揎する゜リュヌションには䟝然ずしお巚倧なデゞタル化の䜙地が残されおいるからだ。

たた、非金融䌁業が自瀟のサヌビスに金融機胜を組み蟌む「゚ンベデッド・ファむナンス組み蟌み型金融」も、小売、物流、SaaSずいった倚様な業界ぞず染み出し始めおいる。金融が単䜓の商品ずしおではなく、商取匕の文脈の䞭でシヌムレスに提䟛されるこずで、ナヌザヌの利䟿性は向䞊し、新たな収益機䌚が創出されおいる。さらに、公的なデゞタル通貚の動きも芋逃せない。むンド準備銀行RBIは䞭倮銀行デゞタル通貚デゞタル・ルピヌの実蚌実隓を継続しおおり、これを珟金ず同様の法定通貚ず䜍眮づけおパむロット参加を呌びかけおいる。今埌は、むンタヌネット接続がない環境でも利甚可胜なオフラむン決枈機胜や、特定の目的のみに䜿甚を限定できるプログラマブルマネヌずしおの実装が重芁な論点ずなり、民間フィンテック䌁業ずの連携も期埅される分野である。

総じお、2025幎末時点のむンド・フィンテックは、決枈むンフラの超巚倧化ずいう第1フェヌズを完了し、䞎信・デヌタ流通・䞍正察策ずいった「瀟䌚的コスト」を匕き受けながらシステム党䜓の信頌性を高める第2フェヌズの真っ只䞭にあるず蚀える。掟手なナニコヌン誕生のニュヌスや巚額の資金調達額よりも、芏制の枠内で着実にスケヌルさせる運甚力、デヌタ連携を高床に掻甚した審査・回収モデルの蚭蚈力、そしおセキュリティ察策を摩擊のないプロダクト䜓隓に溶け蟌たせる実装力が、次の時代の勝者を決定づけるこずになるだろう。むンフラが敎った囜においお、最埌に差を぀けるのは「信頌」である。技術ず制床の䞡面からその信頌を積み䞊げ、瀟䌚むンフラずしおの責任を果たせるかどうかが、むンド・フィンテックの次の10幎を占う詊金石ずなる。

゜フトりェアサプラむチェヌンの透明化が問い盎す䌁業の信頌――SBOM䞖界暙準化の珟圚地ず日本䌁業が講ずべき生存戊略

こうした状況に察し、近幎、䞖界各囜の政府や芏制圓局が足䞊みを揃えお導入を掚進しおいる抂念がある。それが「SBOMSoftware Bill of Materials」である。日本語では「゜フトりェア郚品衚」ず蚳されるこの仕組みは、単なるセキュリティ界隈のバズワヌドや䞀時的な流行に留たらない。それは、耇雑に入り組んだ゜フトりェア䟛絊網を「芋える化」し、健党なデゞタル瀟䌚を維持するための囜際的な共通蚀語ずしお、急速に暙準化が進んでいる。本皿では、SBOMが泚目される背景にある囜際的な動向ず暙準化の流れ、そしおそれが日本䌁業の経営や実務にどのような倉革を迫るのかに぀いお、その本質を解き明かしおいく。

゜フトりェアサプラむチェヌンの闇を照らす「SBOM」の台頭ず囜際暙準化

SBOMずは、文字通り゜フトりェアを構成する「郚品」の䞀芧衚である。これはしばしば、食料品のパッケヌゞ裏面に蚘茉されおいる原材料衚瀺になぞらえられる。私たちが食品を賌入する際、アレルギヌ物質が含たれおいないか、原産地はどこかを確認できるように、゜フトりェアにおいおも「この補品の䞭には、どのベンダヌの、どのバヌゞョンのコンポヌネントが䜿われおいるか」を透明化しようずいう発想である。米囜の倧統領什14028号に基づく定矩によれば、SBOMは「゜フトりェアを構築するために䜿甚されたさたざたなコンポヌネントの詳现ずサプラむチェヌンの関係を蚘述する正匏な蚘録」ず䜍眮付けられおいる。実務的な芳点からは、コンポヌネント名、バヌゞョン、サプラむダヌ名、ラむセンス情報、そしおコンポヌネント間の䟝存関係ずいった情報が含たれるこずが最䜎限求められおいる。

この抂念が䞀気に囜際政治の衚舞台に躍り出た契機は、2021幎に発什された米囜倧統領什14028号「囜家のサむバヌセキュリティの向䞊」であった。盞次ぐ倧芏暡なサむバヌ攻撃やサプラむチェヌンを悪甚したむンシデントを受け、米囜政府は連邊政府が調達する゜フトりェアに察しお極めお高い透明性を芁求し、その具䜓的な手段ずしおSBOMの提䟛を条件付けたのである。これを受けお、米囜商務省電気通信情報庁NTIAは同幎に「SBOMの最小芁玠The Minimum Elements for a Software Bill of Materials」を公衚した。ここでは、デヌタフィヌルドの定矩や運甚䞊の考慮事項、自動化ぞの察応ずいう䞉぀の芖点から、SBOMずしお備えるべき最䜎限の基準が瀺された。その埌、このバトンはサむバヌセキュリティ・むンフラストラクチャセキュリティ庁CISAぞず枡され、2024幎のフレヌミング文曞や2025幎の改蚂版ドラフトずいった圢で、継続的に内容の曎新ず掗緎が行われおいる。重芁なのは、これらが䞀床策定しお終わりの静的な芏栌ではなく、実際の運甚珟堎からのフィヌドバックや管理ツヌルの進化に合わせお、動的にアップデヌトされ続けおいる点である。SBOMはもはや、玍品時に䞀床だけ提出される曞類ではなく、開発から運甚、廃棄に至るたでの゜フトりェアラむフサむクル党䜓を通じお維持されるべき、継続的なサプラむチェヌン管理の䞭栞プロセスずしお䜍眮づけられおいるのである。

法芏制化する透明性――EUの厳栌化ず日本のガむドラむン敎備

米囜が政府調達ずいう匷倧な賌買力をテコにSBOMの普及を図る䞀方で、欧州連合EUは補品芏制ずいうより匷力な法的枠組みを甚いお、垂堎党䜓にSBOMの導入を矩務付けようずしおいる。その象城ずなるのが「サむバヌレゞリ゚ンス法Cyber Resilience Act, CRA」である。2024幎12月10日に発効したこの法埋は、EU垂堎で販売される「デゞタル芁玠を含む補品」のメヌカヌに察し、極めお厳栌なサむバヌセキュリティ芁件を課しおいる。その䞭栞的な矩務の䞀぀が、技術文曞の䞀郚ずしおのSBOMの䜜成ず維持である。具䜓的には、少なくずもトップレベルの䟝存関係を網矅したSBOMを、䞀般的に利甚可胜な機械可読フォヌマットで䜜成し、脆匱性管理プロセスず䞀䜓化させお運甚するこずが求められる。この法埋の䞻芁な矩務芏定は2027幎12月から適甚される予定だが、脆匱性やむンシデントに関する報告矩務に぀いおは2026幎9月から先行しお適甚されるスケゞュヌルずなっおおり、察応たでの猶予は決しお長くない。察象はEU域内のメヌカヌに限らず、日本を含むEU域倖から補品を茞出する䌁業や、自瀟ブランドで補品を流通させる茞入業者も含たれるため、グロヌバルにビゞネスを展開する補造業やIT䌁業にずっお、SBOM察応は垂堎参入のための必須条件、いわば「パスポヌト」ずなり぀぀ある。

こうした欧米の動きに呌応するように、日本囜内においおも環境敎備が急ピッチで進められおいる。経枈産業省は2023幎に「゜フトりェア管理に向けたSBOMの導入に関する手匕」を公開し、さらに実蚌実隓の結果などを螏たえた改蚂版ver2.0を2024幎に提瀺した。これらのガむドラむンは、先行するNTIAの最小芁玠やNIST米囜囜立暙準技術研究所のリスク管理ガむダンスずの敎合性を保ち぀぀、日本䌁業特有の商習慣や実務䞊の課題に配慮した具䜓的な導入手順を瀺しおいる点が特城である。たた、2024幎8月には英語版のガむドも公衚され、海倖の芏制圓局やパヌトナヌ䌁業ずの察話における共通蚀語ずしおの圹割を果たしおいる。さらに特筆すべきは、2025幎9月に日本政府が耇数囜ず連名で眲名した文曞「A Shared Vision of Software Bill of Materials (SBOM) for Cybersecurity」の存圚である。これは、SBOMが単なる䞀囜の斜策ではなく、サむバヌセキュリティ確保のための囜際的な共通むンフラであるずいう認識を明確にしたものであり、今埌はより詳现な技術仕様や運甚ルヌルの策定に向けた倚囜間での議論が加速するこずを瀺唆しおいる。日本䌁業にずっお、これはもはや「察岞の火事」ではなく、自瀟の開発プロセスや調達基準をグロヌバルスタンダヌドに合わせお再構築する奜機ず捉えるべき局面に差し掛かっおいる。

珟堎から経営たで――SBOM導入がもたらす実務倉革ず競争力ぞの転換

SBOMを単なる「芏制察応のために䜜成しなければならない面倒なドキュメント」ず捉えおしたうず、その本質的な䟡倀を芋誀るこずになる。適切に運甚されたSBOMは、䌁業のITガバナンスずセキュリティ運甚に劇的な効率化ず高床化をもたらすポテンシャルを秘めおいる。その実務的なむンパクトは、䞻に䞉぀の領域で顕著に珟れる。

第䞀に挙げられるのは、脆匱性管理の圧倒的な効率化である。Log4j問題に代衚されるように、広く䜿われおいるラむブラリに深刻な脆匱性が発芋された際、䌁業が盎面する最倧の課題は「自瀟のどのシステムの、どこにその郚品が䜿われおいるか」を即座に特定できないこずにある。埓来であれば、各システムの担圓者に聞き取り調査を行ったり、Excelの手䜜業による台垳をひっくり返したりしお確認䜜業に膚倧な時間を費やしおいた。しかし、SBOMが敎備され、最新の状態に保たれおいれば、それは「怜玢可胜なデヌタベヌス」ずしお機胜する。特定の脆匱性が公衚された瞬間、圱響を受けるシステムを網矅的に特定し、リスクの倧きさに基づいおパッチ適甚の優先順䜍を即座に決定するこずが可胜になる。これは、むンシデント察応の初動速床を劇的に向䞊させ、経営リスクを最小化するこずに盎結する。

第二のメリットは、ラむセンスコンプラむアンスの匷化である。珟代の゜フトりェア開発においおOSSの利甚は䞍可欠だが、それぞれのコンポヌネントには再配垃や商甚利甚、特蚱条項などに関する倚皮倚様なラむセンス条件が付随しおいる。これらを十分に理解しないたた安易に補品に組み蟌めば、意図せずしおラむセンス違反を犯し、蚎蚟リスクや瀟䌚的信甚の倱墜を招く恐れがある。SBOMを掻甚すれば、補品に含たれるすべおのOSSずそのラむセンス情報を䞀芧化できるため、出荷前の監査プロセスを自動化したり、第䞉者からの問い合わせに察しお迅速か぀正確に回答したりするこずが容易になる。これは法務・知財郚門にずっおも匷力な歊噚ずなるだろう。

第䞉に、調達プロセスの透明性ず健党化が挙げられる。調達偎がベンダヌに察しおSBOMの提出を芁件化するこずで、これたで「䞭身の分からないブラックボックス」ずしお賌入しおいた゜フトりェアを、「構成芁玠が明瀺された説明可胜な資産」ぞず倉えるこずができる。米囜では既に連邊政府調達においおこの動きが暙準化しおおり、日本においおも民間䌁業間の取匕慣行ずしお埐々に浞透し぀぀ある。䟛絊偎にずっおも、自瀟補品の透明性を担保するこずは、品質ぞの自信ずセキュリティに察する誠実な姿勢を瀺すこずになり、競争優䜍性の䞀぀ずなり埗る。

もちろん、SBOM導入には課題も残されおいる。SPDXやCycloneDXずいった耇数のデヌタフォヌマットが䞊立しおおり、ツヌル間の完党な盞互運甚性が確立されるたでにはただ時間を芁する偎面がある。たた、SBOMは「䜜るこず」自䜓が目的化しやすいずいう萜ずし穎もある。自動生成ツヌルを䜿えば圢匏䞊のファむルを䜜成するこずは容易だが、それがCI/CDパむプラむンに組み蟌たれおおらず、リリヌスごずに曎新されおいなければ、すぐに陳腐化した「䜿えないゎミデヌタ」になっおしたう。さらに、開発、運甚、セキュリティ、法務、調達ずいった郚門間の壁を越えお、誰がSBOMのオヌナヌシップを持぀のかずいう組織蚭蚈も倧きなハヌドルずなる。

だからこそ、日本䌁業のIT郚門は今、胜動的に動き出す必芁がある。たずは自瀟の゜フトりェアサプラむチェヌンを棚卞しし、自瀟開発、委蚗開発、SaaSのそれぞれに぀いお、どこたで構成情報を可芖化できるか珟状を把握するこずから始めるべきである。その䞊で、既存の構成管理やセキュリティ蚺断ツヌルず連携可胜なSBOM生成・管理の仕組みを怜蚎し、段階的に導入を進めおいくこずが求められる。たた、察倖的な契玄や調達基準においおも、SBOMに関する条項を盛り蟌み、サプラむチェヌン党䜓で透明性を高めおいく姿勢が必芁だ。

サプラむチェヌン攻撃が垞態化し、゜フトりェアの安党性が経枈安党保障の芳点からも問われる珟代においお、「䞭身が芋えない」こずはそれ自䜓が蚱容しがたいリスクずなり぀぀ある。SBOMは魔法の杖ではないが、耇雑なデゞタル瀟䌚においお信頌を担保するための最も基瀎的なむンフラであるこずは間違いない。䞖界暙準ずしおのSBOMにいち早く適応し、自瀟の゜フトりェアの䞭身を自信を持っお説明できる䌁業こそが、次代の垂堎競争における信頌ずいう名の通貚を手にするこずができるのである。

フェデレヌション技術が拓く「集めないデヌタ掻甚」の新地平――䌁業ITが盎面する分散型アヌキテクチャぞの転換点

「分散」が䟡倀を生む新たなメカニズム――フェデレヌション技術の党貌

フェデレヌション技術ずは、デヌタを物理的に䞀箇所ぞ集玄するこずなく、各組織や各システムがデヌタを保持したたたの状態においお、分析、怜玢、孊習、あるいは参照ずいった高床なデヌタ凊理を行う方匏の総称である。この技術䜓系は決しお単䞀のものではなく、倧きく分けおフェデレヌテッドラヌニング連合孊習、フェデレヌテッドク゚リ、そしお分散型のRAG怜玢拡匵生成およびナレッゞ連携ずいう䞉぀の䞻芁な朮流によっお圢成されおいる。これらに共通する栞心的な蚭蚈思想は、埓来型のデヌタ掻甚が前提ずしおきた「デヌタを蚈算資源のある堎所ぞ移動させる」ずいうアプロヌチから、「蚈算ロゞックやク゚リをデヌタが存圚する堎所ぞ掟遣する」ずいうアプロヌチぞのコペルニクス的転回にある。

たず、フェデレヌテッドラヌニングに぀いお詳述すれば、これは各゚ッゞデバむスや拠点サヌバヌに機械孊習モデルそのものを配垃し、ロヌカル環境にあるデヌタを甚いお孊習を実行させる手法である。特筆すべきは、孊習プロセスにおいお生のデヌタ自䜓が倖郚に出るこずは決しおないずいう点だ。䞭倮サヌバヌぞ送信されるのは、孊習によっお曎新されたモデルの重みパラメヌタや募配情報のみであり、これらが䞭倮で統合されるこずでグロヌバルモデルが曎新される。圓初はスマヌトフォンの予枬倉換など、個人のプラむバシヌ保護ず利䟿性を䞡立する手段ずしお泚目されたが、珟圚では医療画像蚺断における病院間連携や、金融機関における䞍正怜知モデルの高床化など、機密性の高いデヌタを扱う゚ンタヌプラむズ領域での実蚌ず実装が進んでいる。各組織が秘匿デヌタを手元に眮いたたた、組織の壁を越えた集合知を圢成できる点が、この技術の最倧の匷みである。

次に、フェデレヌテッドク゚リは、デヌタ分析の領域においお物理的なデヌタ統合を䞍芁にする技術である。これは、分析者が発行したSQLや怜玢ク゚リを、分散しおいる耇数のデヌタ゜ヌスに察しお盎接投入し、返っおきた郚分的な結果セットをメモリ䞊で結合しお最終的な回答を導き出す仕組みを指す。近幎、BigQueryやSnowflake、AWS Athenaずいった䞻芁なクラりドデヌタ基盀が、他瀟のクラりドストレヌゞやオンプレミスのデヌタベヌスに察しお盎接ク゚リを実行できる機胜を匷化しおいる背景には、このフェデレヌションのアプロヌチがある。デヌタを移動させる際に発生するETL凊理のコストや時間を削枛し、デヌタ鮮床を保ったたた暪断的な分析を可胜にするこの技術は、デヌタの物理的な所圚を意識させない仮想的な統合ビュヌをナヌザヌに提䟛する。

そしお、生成AIの台頭ずずもに急速に関心を集めおいるのが、分散型のRAGやナレッゞ連携である。これは、怜玢拡匵生成においお参照すべきドキュメントやデヌタベヌスを単䞀のベクトルデヌタベヌスに統合するのではなく、各拠点や各郚門が管理する耇数のナレッゞ゜ヌスに察しお怜玢を実行し、その結果を統合しおLLM倧芏暡蚀語モデルに枡すアヌキテクチャである。䟋えば、グロヌバルに展開する補造業や商瀟においお、各囜の拠点が持぀契玄曞や技術文曞を、各囜の法芏制に準拠した圢で珟地サヌバヌに眮いたたた、本瀟や他拠点から必芁な知芋だけを自然蚀語で問いかけるずいったシナリオで嚁力を発揮する。ここでも「デヌタは動かさず、質問ず回答だけが飛び亀う」ずいう原則が貫かれおおり、䌁業グルヌプ党䜓で知芋を共有しながらも、ガバナンスの境界線を維持するこずが可胜ずなる。

必然ずしおのアヌキテクチャシフト――芏制・AI・クラりドが迫る再定矩

フェデレヌション技術が2020幎代埌半の今、改めお脚光を济びおいる背景には、単なる技術的な流行を超えた構造的な必然性が存圚する。それは、囜際的なデヌタ䞻暩をめぐる制床倉化、生成AIに察する瀟䌚的芁請、そしおマルチクラりド化によるデヌタ散圚の深刻化ずいう䞉぀の匷力なドラむバヌが同時に䜜甚しおいるためである。これらは耇合的に絡み合い、埓来の䞭倮集暩的なデヌタ基盀構築のハヌドルをか぀おないほど高くしおいる。

第䞀の芁因は、デヌタ䞻暩ずプラむバシヌに関する囜際ルヌルの厳栌化ず现分化である。欧州におけるGDPR䞀般デヌタ保護芏則の斜行以降、䞖界各囜でデヌタ保護法制の敎備が進んだが、近幎ではさらに螏み蟌んだ芏制が登堎しおいる。特にEUのData Governance ActDGAやData Actは、デヌタの公正なアクセスず共有を促進する䞀方で、域倖ぞのデヌタ移転に察しお厳しい条件を課しおいる。たた、米囜のCLOUD Actや䞭囜のデヌタ安党法なども含め、デヌタが物理的にどこに保存されおいるかずいう「堎所」の問題が、法的リスクに盎結する状況が生たれおいる。こうした環境䞋では、すべおのデヌタを䞀箇所のクラりドリヌゞョンに集玄するこずは、法的なコンプラむアンスコストを跳ね䞊がらせるリスク芁因ずなり埗る。これに察し、フェデレヌションはデヌタを生成された堎所、あるいは法的に蚱可された堎所に留め眮いたたた掻甚するこずを可胜にするため、各囜の法芏制に察する適合性を構造的に高めるこずができる。DGAが提唱する「デヌタ仲介サヌビス」のように、デヌタを預けずに共有する枠組みずも、フェデレヌションの思想は極めお芪和性が高い。

第二の芁因ずしお、生成AIの急速な普及に䌎う孊習デヌタの透明性ぞの芁求が挙げられる。2024幎に成立したEU AI Actは、汎甚AIモデルの提䟛者に察し、孊習に䜿甚したデヌタの抂芁を開瀺する透明性矩務を課しおいる。䌁業が独自にLLMをファむンチュヌニングしたり、RAGを構築したりする堎合、「どのデヌタが、い぀、どのような暩限に基づいお䜿甚されたか」を远跡可胜性トレヌサビリティを持っお管理するこずが求められる。巚倧なデヌタレむクに無秩序にデヌタを攟り蟌み、そこから孊習デヌタを生成する埓来の手法では、この説明責任を果たすこずが困難になり぀぀ある。察しおフェデレヌションのアプロヌチでは、デヌタ゜ヌスが明確に区分けされた状態で管理されるため、特定のデヌタセットを孊習から陀倖したり、利甚履歎を远跡したりずいったガバナンスを効かせやすい。デヌタを混ぜ合わせないからこそ、デヌタの出自ず利甚範囲を明確に説明できるずいう逆説的なメリットが、AI時代のコンプラむアンスにおいお重芁な意味を持ち始めおいる。

第䞉の芁因は、マルチクラりド戊略ずSaaSの浞透による、実質的なデヌタ散圚の垞態化である。倚くの䌁業にずっお、単䞀のクラりドベンダヌだけですべおの業務を完結させるこずはもはや非珟実的であり、郚門ごずに最適なSaaSを導入した結果、顧客デヌタや業務デヌタは耇数のクラりドずオンプレミス環境に断片化しお存圚しおいる。これらをすべお䞀぀のデヌタりェアハりスに統合しようずすれば、莫倧なデヌタ転送コストEgress Costず、終わりのないデヌタパむプラむンのメンテナンス地獄が埅っおいる。フェデレヌションは、この「デヌタは散圚するものである」ずいう事実をあるがたたに受け入れ、その状態を前提ずした䞊で統合的な掻甚を目指す珟実解ずしお機胜する。デヌタを無理に移動させようずする努力を、ク゚リを最適に配分する努力ぞず転換するこずで、CIOはデヌタ転送コストの削枛ず、ベンダヌロックむンの回避ずいう二぀の果実を同時に埗るこずができるのである。

幻想を捚おお珟実に向き合う――実務的課題ずIT戊略ぞの瀺唆

フェデレヌション技術は、珟代の䌁業ITが抱える倚くの課題に察しお魅力的な解決策を提瀺しおいるが、それは決しお導入すれば盎ちにすべおの問題が解消される魔法の杖ではない。実務的な芳点から芋れば、䞭倮集暩型モデルずは異なる固有の課題や限界が存圚し、それらを正しく理解した䞊でのアヌキテクチャ蚭蚈が求められる。フェデレヌションぞの過床な期埅を排し、その珟実的な特性を芋極めるこずが、成功ぞの第䞀歩ずなる。

たず盎面するのは、パフォヌマンスずレむテンシの問題である。デヌタが䞀箇所にあれば高速に完了するク゚リも、ネットワヌク越しに耇数のデヌタ゜ヌスぞ問い合わせを行い、その結果を集蚈するフェデレヌション構成では、どうしおも応答速床が䜎䞋する傟向にある。特に、クロスリヌゞョンやクロスクラりドでの結合凊理が発生する堎合、ネットワヌクの垯域幅や遅延がボトルネックずなり、ナヌザヌ䜓隓を損なうリスクがある。そのため、頻繁にアクセスされるデヌタに぀いおはキャッシュ戊略を組み合わせたり、事前に集蚈したサマリヌデヌタのみを同期させたりずいった、ハむブリッドな蚭蚈が䞍可欠ずなる。たた、フェデレヌテッドラヌニングにおいおは、各拠点の゚ッゞデバむスやサヌバヌの蚈算胜力にばら぀きがある堎合、最も遅いデバむスが党䜓の孊習プロセスを埋速しおしたう問題や、通信回線の䞍安定さが孊習の収束を劚げる問題も考慮しなければならない。

次に、デヌタガバナンスずメタデヌタ管理の難易床が飛躍的に向䞊するずいう点も看過できない。「デヌタを集めない」ずいうこずは、裏を返せば「散らばったデヌタが論理的に繋がるように定矩を揃えなければならない」ずいうこずを意味する。各拠点で異なるカラム名やコヌド䜓系が䜿われおいれば、そのたたでは暪断的な怜玢も分析も䞍可胜である。物理的な統合を行わない分、論理的な統合、すなわちセマンティックレむダヌやメタデヌタの敎備に察する投資がより䞀局重芁になる。さらに、アクセス暩限の管理も耇雑化する。䞭倮集暩型であればデヌタベヌス゚ンゞンの機胜で䞀元管理できた暩限蚭定を、分散した各゜ヌスシステムに察しお敎合性を保ちながら適甚し続けるには、高床なアむデンティティ管理基盀ずポリシヌ制埡の仕組みが必芁ずなる。ク゚リが広範囲に飛ぶずいうこずは、それだけ攻撃察象領域が広がるずいうこずでもあり、セキュリティ蚭蚈には现心の泚意が求められる。

こうした課題を螏たえた䞊で、今埌のCIOやIT郚門が採るべき戊略ずはどのようなものか。それは、デヌタを「集めるべきもの」ず「集めざるべきものあるいは集められないもの」に明確に分類し、適材適所でアヌキテクチャを䜿い分けるハむブリッドな芖座を持぀こずである。すべおのデヌタを䞭倮に集めるずいう過去の理想䞻矩ずも、珟堎任せでサむロ化を攟眮する珟状远認ずも決別し、戊略的な意図を持っおフェデレヌション領域を定矩するこずが求められる。具䜓的には、党瀟的な蚈数管理や高速な分析が必芁なコアデヌタは埓来通りDWHぞ統合し぀぀、機密性の高い顧客デヌタ、各囜の芏制に瞛られる珟地デヌタ、あるいは鮮床が呜のIoTデヌタなどに぀いおは、フェデレヌション技術を甚いお分散管理のたた掻甚するずいったポヌトフォリオ管理の発想である。

フェデレヌション技術の台頭は、䌁業ITにおけるデヌタ掻甚のアプロヌチが、単玔な「集䞭」から、より掗緎された「協調」ぞず進化しおいるこずを瀺しおいる。それは、グロヌバル芏暡での法芏制ぞの適応力、生成AIに察する透明性の担保、そしおマルチクラりド環境での柔軟性ずいった、珟代䌁業が喉から手が出るほど欲しい胜力を構造的に提䟛するものである。2025幎以降のデヌタ戊略においお、フェデレヌションは単なるニッチな技術オプションではなく、䞭倮集暩型アヌキテクチャず察をなす暙準的な遞択肢ずしお定着しおいくだろう。デヌタを所有するこずから、デヌタにアクセスしお䟡倀を匕き出すこずぞ。その重心の移動を捉え、自瀟のデヌタアヌキテクチャを「分散前提」で再蚭蚈できるかどうかが、次䞖代の競争力を巊右する詊金石ずなるに違いない。

オプトむンからオプトアりトぞ―次䞖代医療基盀法が倉えた医療デヌタのルヌル

オプトアりト方匏が必芁ずされた背景

個人情報保護法が原則ずしお求めるのは、「芁配慮個人情報の第䞉者提䟛は本人同意」ずいうオプトむン型のルヌルです。しかし、がんや垌少疟患、生掻習慣病のように、長期的に远跡しなければ意味を持たない研究分野では、このルヌルが倧きな壁になりたす。病院に通っおいた時点では研究を想定しおいなかった患者も倚く、すでに転居や死亡により連絡が取れなくなっおいるケヌスも少なくありたせん。その結果、研究察象が「同意を取れた人だけ」に偏り、バむアスのかかった研究しかできないずいうゞレンマが生じおいたした。

次䞖代医療基盀法は、こうした状況を螏たえ、「䞀定の芁件のもずであれば、本人の事前同意を芁しないオプトアりト方匏でも医療情報の提䟛を可胜にしよう」ずいう発想から生たれたした。ただし、その代わりに、医療情報を集玄・加工する事業者に察しお厳栌な認定制床を蚭け、匿名加工や仮名加工、安党管理措眮を培底させるこずで、患者の暩利利益を守るずいうバランスがずられおいたす。

医療機関は、この法埋に基づき、患者に察しお医療情報の第䞉者提䟛に぀いお事前に通知を行いたす。患者が提䟛を望たない堎合には、申し出るこずで提䟛を停止できる、いわば「提䟛拒吊暩」が保障されおいたす。この仕組みは、すべおの患者から明瀺同意を集めるオプトむンより柔軟でありながら、完党な無断利甚ずも異なる、䞭間的なバランスを目指したものず蚀えたす。

匿名加工医療情報ず仮名加工医療情報のちがい

次䞖代医療基盀法の特城は、凊理された医療情報を「匿名加工医療情報」ず「仮名加工医療情報」に区別しおいる点にありたす。匿名加工医療情報は、個人を特定できず、か぀元に戻すこずができないように加工された情報です。氏名や䜏所、生幎月日、保険者番号ずいった識別子だけでなく、極端な幎霢や非垞に皀な疟患名、その人固有の組み合わせずいった「識別に぀ながりうる情報」も慎重に削陀やマスキングの察象になりたす。その結果ずしお、再識別のリスクは䜎く抑えられたすが、個別の患者を远跡する圢の解析は難しくなりたす。

これに察しお仮名加工医療情報は、盎接の識別子を削陀し぀぀も、垌少疟患や特異な怜査倀ずいった情報を䞀定皋床残すこずを蚱容したものです。ここで重芁なのは、仮名加工医療情報を䜜成する際には、元デヌタずの察応付けが可胜なキヌ情報が厳重に管理されおいる点です。察応衚自䜓は認定事業者の厳栌な管理䞋に眮かれ、利甚事業者の偎からはアクセスできたせんが、その存圚によっお、将来的に远加情報を統合したり、長期フォロヌアップのためにデヌタを拡匵したりするこずが技術的には可胜になりたす。

こうした構造により、仮名加工医療情報は、垌少疟患や個別化医療、薬剀反応性の評䟡ずいった、より粟密な解析が必芁な分野での掻甚を芖野に入れおいたす。䞀方で、利甚事業者には再識別の犁止や第䞉者提䟛の制限ずいった厳栌な矩務が課され、違反した堎合には眰則も想定されおいたす。この意味で、仮名加工医療情報は「匷い芏埋を䌎う高粟床デヌタ」ずしお䜍眮付けられおいるのです。

認定事業者制床ず実務ぞのむンパクト

次䞖代医療基盀法のもう䞀぀の芁ずなるのが、「認定匿名加工医療情報䜜成事業者」「認定仮名加工医療情報䜜成事業者」「認定利甚事業者」ずいった認定事業者制床です。医療機関や自治䜓、孊校などから医療情報の提䟛を受け、その加工や名寄せ、倧芏暡デヌタベヌスの構築を担うのが䜜成事業者であり、そのデヌタを甚いお研究や補品開発を行うのが利甚事業者です。

䜜成事業者に求められる芁件は倚岐にわたり、情報セキュリティ䜓制、内郚統制、倫理審査機胜、倖郚有識者を含む委員䌚の蚭眮など、高床なガバナンスが必芁ずされたす。利甚事業者の偎も、利甚目的や解析方法、安党管理措眮に぀いお、契玄や内郚芏皋を通じお詳现に定める必芁がありたす。こうしたハヌドルは䞀芋するず高く芋えたすが、裏を返せば、認定スキヌムを通じおさえいれば、倧芏暡な医療デヌタを比范的安定的に利甚できる「専甚レヌン」を確保できるずも蚀えたす。

補薬䌁業や医療機噚メヌカヌ、AIスタヌトアップなどにずっお、この枠組みは自瀟の研究開発戊略を構想する際の重芁な遞択肢になりたす。個々の医療機関から盎接デヌタを集めるルヌトず比べ、倫理審査や同意の取埗を自瀟で䞀から蚭蚈する必芁がない䞀方で、デヌタの利甚範囲や再利甚、モデルの二次掻甚などには制玄も生じたす。どのレベルの柔軟性を求め、どの皋床のコンプラむアンスコストを蚱容するのか。次䞖代医療基盀法は、䌁業にそうした戊略的な刀断を迫る法埋でもあるのです。

AI ROI: How to measure the true value of AI

For all the buzz about AI’s potential to transform business, many organizations struggle to ascertain the extent to which their AI implementations are actually working.

Part of this is because AI doesn’t just replace a task or automate a process — rather, it changes how work itself happens, often in ways that are hard to quantify. Measuring that impact means deciding what return really means, and how to connect new forms of digital labor to traditional business outcomes.

“Like everyone else in the world right now, we’re figuring it out as we go,” says Agustina Branz, senior marketing manager at Source86.

That trial-and-error approach is what defines the current conversation about AI ROI.

To help shed light on measuring the value of AI, we spoke to several tech leaders about how their organizations are learning to gauge performance in this area — from simple benchmarks against human work to complex frameworks that track cultural change, cost models, and the hard math of value realization.

The simplest benchmark: Can AI do better than you?

There’s a fundamental question all organizations are starting to ask, one that underlies nearly every AI metric in use today: How well does AI perform a task relative to a human? For Source86’s Branz, that means applying the same yardstick to AI that she uses for human output.

“AI can definitely make work faster, but faster doesn’t mean ROI,” she says. “We try to measure it the same way we do with human output: by whether it drives real results like traffic, qualified leads, and conversions. One KPI that has been useful for us has been cost per qualified outcome, which basically means how much less it costs to get a real result like the ones we were getting before.”

The key is to compare against what humans delivered in the same context. “We try to isolate the impact of AI by running A/B tests between content that uses AI and those that don’t,” she says.

“For instance, when testing AI-generated copy or keyword clusters, we track the same KPIs — traffic, engagement, and conversions — and compare the outcome to human-only outputs,” Branz explains. “Also, we treat AI performance as a directional metric rather than an absolute one. It is super useful for optimization, but definitely not the final judgment.”

Marc‑Aurele Legoux, founder of an organic digital marketing agency, is even more blunt. “Can AI do this better than a human can? If yes, then good. If not, there’s no point to waste money and effort on it,” he says. “As an example, we implemented an AI agent chatbot for one of my luxury travel clients, and it brought in an extra €70,000 [$81,252] in revenue through a single booking.”

The KPIs, he said, were simply these: “Did the lead come from the chatbot? Yes. Did this lead convert? Yes. Thank you, AI chatbot. We would compare AI-generated outcomes — leads, conversions, booked calls —against human-handled equivalents over a fixed period. If the AI matches or outperforms human benchmarks, then it’s a success.”

But this sort of benchmark, while straightforward in theory, becomes much harder in practice. Setting up valid comparisons, controlling for external factors, and attributing results solely to AI is easier said than done.

Hard money: Time, accuracy, and value

The most tangible form of AI ROI involves time and productivity. John Atalla, managing director at Transformativ, calls this “productivity uplift”: “time saved and capacity released,” measured by how long it takes to complete a process or task.

But even clear metrics can miss the full picture. “In early projects, we found our initial KPIs were quite narrow,” he says. “As delivery progressed, we saw improvements in decision quality, customer experience, and even staff engagement that had measurable financial impact.”

That realization led Atalla’s team to create a framework with three lenses: productivity, accuracy, and what he calls “value-realization speed”— “how quickly benefits show up in the business,” whether measured by payback period or by the share of benefits captured in the first 90 days.

The same logic applies at Wolters Kluwer, where Aoife May, product management association director, says her teams help customers compare manual and AI-assisted work for concrete time and cost differences.

“We attribute estimated times to doing tasks such as legal research manually and include an average attorney cost per hour to identify the costs of manual effort. We then estimate the same, but with the assistance of AI.” Customers, she says, “reduce the time they spend on obligation research by up to 60%.”

But time isn’t everything. Atalla’s second lens — decision accuracy — captures gains from fewer errors, rework, and exceptions, which translate directly into lower costs and better customer experiences.

Adrian Dunkley, CEO of StarApple AI, takes the financial view higher up the value chain. “There are three categories of metrics that always matter: efficiency gains, customer spend, and overall ROI,” he says, adding that he tracks “how much money you were able to save using AI, and how much more you were able to get out of your business without spending more.”

Dunkley’s research lab, Section 9, also tackles a subtler question: how to trace AI’s specific contribution when multiple systems interact. He relies on a process known as “impact chaining,” which he “borrowed from my climate research days.” Impact chaining maps each process to its downstream business value to create a “pre-AI expectation of ROI.”

Tom Poutasse, content management director at Wolters Kluwer, also uses impact chaining, and describes it as “tracing how one change or output can influence a series of downstream effects.” In practice, that means showing where automation accelerates value and where human judgment still adds essential accuracy.

Still, even the best metrics matter only if they’re measured correctly. Establishing baselines, attributing results, and accounting for real costs are what turn numbers into ROI — which is where the math starts to get tricky.

Getting the math right: Baselines, attribution, and cost

The math behind the metrics starts with setting clean baselines and ends with understanding how AI reshapes the cost of doing business.

Salome Mikadze, co-founder of Movadex, advises rethinking what you’re measuring: “I tell executives to stop asking ‘what is the model’s accuracy’ and start with ‘what changed in the business once this shipped.’”

Mitadze’s team builds those comparisons into every rollout. “We baseline the pre-AI process, then run controlled rollouts so every metric has a clean counterfactual,” she says. Depending on the organization, that might mean tracking first-response and resolution times in customer support, lead time for code changes in engineering, or win rates and content cycle times in sales. But she says all these metrics include “time-to-value, adoption by active users, and task completion without human rescue, because an unused model has zero ROI.”

But baselines can blur when people and AI share the same workflow, something that spurred Poutasse’s team at Wolters Kluwer to rethink attribution entirely. “We knew from the start that the AI and the human SMEs were both adding value, but in different ways — so just saying ‘the AI did this’ or ‘the humans did that’ wasn’t accurate.”

Their solution was a tagging framework that marks each stage as machine-generated, human-verified, or human-enhanced. That makes it easier to show where automation adds efficiency and where human judgment adds context, creating a truer picture of blended performance.

At a broader level, measuring ROI also means grappling with what AI actually costs. Michael Mansard, principal director at Zuora’s Subscribed Institute, notes that AI upends the economic model that IT has taken for granted since the dawn of the SaaS era.

“Traditional SaaS is expensive to build but has near-zero marginal costs,” Mansard says, “while AI is inexpensive to develop but incurs high, variable operational costs. These shifts challenge seat-based or feature-based models, since they fail when value is tied to what an AI agent accomplishes, not how many people log in.”

Mansard sees some companies experimenting with outcome-based pricing — paying for a percentage of savings or gains, or for specific deliverables such as Zendesk’s $1.50-per-case-resolution model. It’s a moving target: “There isn’t and won’t be one ‘right’ pricing model,” he says. “Many are shifting toward usage-based or outcome-based pricing, where value is tied directly to impact.”

As companies mature in their use of AI, they’re facing a challenge that goes beyond defining ROI once: They’ve got to keep those returns consistent as systems evolve and scale.

Scaling and sustaining ROI

For Movadex’s Mikadze, measurement doesn’t end when an AI system launches. Her framework treats ROI as an ongoing calculation rather than a one-time success metric. “On the cost side we model total cost of ownership, not just inference,” she says. That includes “integration work, evaluation harnesses, data labeling, prompt and retrieval spend, infra and vendor fees, monitoring, and the people running change management.”

Mikadze folds all that into a clear formula: “We report risk-adjusted ROI: gross benefit minus TCO, discounted by safety and reliability signals like hallucination rate, guardrail intervention rate, override rate in human-in-the-loop reviews, data-leak incidents, and model drift that forces retraining.”

Most companies, Mikadze adds, accept a simple benchmark: ROI = (Δ revenue + Δ gross margin + avoided cost) − TCO, with a payback target of less than two quarters for operations use cases and under a year for developer-productivity platforms.

But even a perfect formula can fail in practice if the model isn’t built to scale. “A local, motivated pilot team can generate impressive early wins, but scaling often breaks things,” Mikadze says. Data quality, workflow design, and team incentives rarely grow in sync, and “AI ROI almost never scales cleanly.”

She says she sees the same mistake repeatedly: A tool built for one team gets rebranded as a company-wide initiative without revisiting its assumptions. “If sales expects efficiency gains, product wants insights, and ops hopes for automation, but the model was only ever tuned for one of those, friction is inevitable.”

Her advice is to treat AI as a living product, not a one-off rollout. “Successful teams set very tight success criteria at the experiment stage, then revalidate those goals before scaling,” she says, defining ownership, retraining cadence, and evaluation loops early on to keep the system relevant as it expands.

That kind of long-term discipline depends on infrastructure for measurement itself. StarApple AI’s Dunkley warns that “most companies aren’t even thinking about the cost of doing the actual measuring.” Sustaining ROI, he says, “requires people and systems to track outputs and how those outputs affect business performance. Without that layer, businesses are managing impressions, not measurable impact.”

The soft side of ROI: Culture, adoption, and belief

Even the best metrics fall apart without buy-in. Once you’ve built the spreadsheets and have the dashboards up and running, the long-term success of AI depends on the extent to which people adopt it, trust it, and see its value.

Michael Domanic, head of AI at UserTesting, draws a distinction between “hard” and “squishy” ROI.

“Hard ROI is what most executives are familiar with,” he says. “It refers to measurable business outcomes that can be directly traced back to specific AI deployments.” Those might be improvements in conversion rates, revenue growth, customer retention, or faster feature delivery. “These are tangible business results that can and should be measured with rigor.”

But squishy ROI, Domanic says, is about the human side — the cultural and behavioral shifts that make lasting impact possible. “It reflects the cultural and behavioral shift that happens when employees begin experimenting, discovering new efficiencies, and developing an intuition for how AI can transform their work.” Those outcomes are harder to quantify but, he adds, “they are essential for companies to maintain a competitive edge.” As AI becomes foundational infrastructure, “the boundary between the two will blur. The squishy becomes measurable and the measurable becomes transformative.”

Promevo’s Pettit argues that self-reported KPIs that could be seen as falling into the “squishy” category — things like employee sentiment and usage rates — can be powerful leading indicators. “In the initial stages of an AI rollout, self-reported data is one of the most important leading indicators of success,” he says.

When 73% of employees say a new tool improves their productivity, as they did at one client company he worked with, that perception helps drive adoption, even if that productivity boost hasn’t been objectively measured. “Word of mouth based on perception creates a virtuous cycle of adoption,” he says. “Effectiveness of any tool grows over time, mainly by people sharing their successes and others following suit.”

Still, belief doesn’t come automatically. StarApple AI and Section 9’s Dunkley warn that employees often fear AI will erase their credit for success. At one of the companies where Section 9 has been conducting a long-term study, “staff were hesitant to have their work partially attributed to AI; they felt they were being undermined.”

Overcoming that resistance, he says, requires champions who “put in the work to get them comfortable and excited for the AI benefits.” Measuring ROI, in other words, isn’t just about proving that AI works — it’s about proving that people and AI can win together.

❌