❌

Reading view

There are new articles available, click to refresh the page.

Your next big AI decision isn’t build vs. buy — It’s how to combine the two

A year ago, agentic AI lived mostly in pilot programs. Today, CIOs are embedding it inside customer-facing workflows where accuracy, latency, and explainability matter as much as cost.

As the technology matures beyond experimentation, the build-versus-buy question has returned with urgency, but the decision is harder than ever. Unlike traditional software, agentic AI is not a single product. It’s a stack consisting of foundation models, orchestration layers, domain-specific agents, data fabrics, and governance rails. Each layer carries a different set of risks and benefits.

CIOs can no longer ask simply, “Do we build or do we buy?” They must now navigate a continuum across multiple components, determining what to procure, what to construct internally, and how to maintain architectural flexibility in a landscape that changes monthly.

Know what to build and what to buy

Matt Lyteson, CIO of technology transformation at IBM, begins every build-versus-buy decision with a strategic filter: Does the customer interaction touch a core differentiator? If the answer is yes, buying is rarely enough. “I anchor back to whether customer support is strategic to the business,” he says. “If it’s something we do in a highly specialized way — something tied to revenue or a core part of how we serve clients — that’s usually a signal to build.”

IBM even applies this logic internally. The company uses agentic AI to support employees, but those interactions rely on deep knowledge of a worker’s role, devices, applications, and historical issues. A vendor tool might address generic IT questions, but not the nuances of IBM’s environment.

However, Lyteson cautions that strategic importance isn’t the only factor. Velocity matters. “If I need to get something into production quickly, speed may outweigh the desire to build,” he says. “I might accept a more generic solution if it gets us value fast.” In practice, that means CIOs sometimes buy first, then build around the edges, or eventually build replacements once the use case matures.

srcset="https://b2b-contenthub.com/wp-content/uploads/2025/11/Matt-Lyteson-CIO-technology-transformation-IBM.jpg?quality=50&strip=all 1800w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Matt-Lyteson-CIO-technology-transformation-IBM.jpg?resize=300%2C200&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Matt-Lyteson-CIO-technology-transformation-IBM.jpg?resize=768%2C512&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Matt-Lyteson-CIO-technology-transformation-IBM.jpg?resize=1024%2C683&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Matt-Lyteson-CIO-technology-transformation-IBM.jpg?resize=1536%2C1025&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Matt-Lyteson-CIO-technology-transformation-IBM.jpg?resize=1240%2C826&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Matt-Lyteson-CIO-technology-transformation-IBM.jpg?resize=150%2C100&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Matt-Lyteson-CIO-technology-transformation-IBM.jpg?resize=1045%2C697&quality=50&strip=all 1045w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Matt-Lyteson-CIO-technology-transformation-IBM.jpg?resize=252%2C168&quality=50&strip=all 252w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Matt-Lyteson-CIO-technology-transformation-IBM.jpg?resize=126%2C84&quality=50&strip=all 126w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Matt-Lyteson-CIO-technology-transformation-IBM.jpg?resize=719%2C480&quality=50&strip=all 719w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Matt-Lyteson-CIO-technology-transformation-IBM.jpg?resize=540%2C360&quality=50&strip=all 540w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Matt-Lyteson-CIO-technology-transformation-IBM.jpg?resize=375%2C250&quality=50&strip=all 375w" width="1240" height="827" sizes="auto, (max-width: 1240px) 100vw, 1240px">

Matt Lyteson, CIO, technology transformation, IBM

IBM

Another useful insight can be taken from Wolters Kluwer, where Alex Tyrrell, CTO of health, runs experiments early in the decision process to test feasibility. Rather than committing to a build-or-buy direction too soon, his teams quickly probe each use case to understand whether the underlying problem is commodity or differentiating.

“You want to experiment quickly to understand how complex the problem really is,” he says. “Sometimes you discover it’s more feasible to buy and get to market fast. Other times, you hit limits early, and that tells you where you need to build.”

Tyrrell notes that many once-specialized tasks — OCR, summarization, extraction — have been commoditized by advances in gen AI. These are better bought than built. But the higher-order logic that governs workflows in healthcare, legal compliance, and finance is a different story. Those layers determine whether an AI response is merely helpful or genuinely trusted.

That’s where the in-house build work begins, says Tyrrell. And it’s also where experimentation pays for itself since quick tests reveal very early whether an off-the-shelf agent can deliver meaningful value, or if domain reasoning must be custom-engineered.

Buyer beware

CIOs often assume that buying will minimize complexity. But vendor tools introduce their own challenges. Tyrrell identifies latency as the first trouble spot. A chatbot demo may feel instantaneous, but a customer-facing workflow requires rapid responses. “Embedding an agent in a transactional workflow means customers expect near-instant results,” he says. “Even small delays create a bad experience, and understanding the source of latency in a vendor solution can be difficult.”

Cost quickly becomes the second shock. A single customer query might involve grounding, retrieval, classification, in-context examples, and multiple model calls. Each step consumes tokens, and vendors often simplify pricing in their marketing materials. But CIOs only discover the true cost when the system runs at scale.

srcset="https://b2b-contenthub.com/wp-content/uploads/2025/11/Alex-Tyrrell-CTO-of-health-Wolters-Kluwer-1.jpg?quality=50&strip=all 1800w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Alex-Tyrrell-CTO-of-health-Wolters-Kluwer-1.jpg?resize=300%2C200&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Alex-Tyrrell-CTO-of-health-Wolters-Kluwer-1.jpg?resize=768%2C512&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Alex-Tyrrell-CTO-of-health-Wolters-Kluwer-1.jpg?resize=1024%2C683&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Alex-Tyrrell-CTO-of-health-Wolters-Kluwer-1.jpg?resize=1536%2C1024&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Alex-Tyrrell-CTO-of-health-Wolters-Kluwer-1.jpg?resize=1240%2C826&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Alex-Tyrrell-CTO-of-health-Wolters-Kluwer-1.jpg?resize=150%2C100&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Alex-Tyrrell-CTO-of-health-Wolters-Kluwer-1.jpg?resize=1046%2C697&quality=50&strip=all 1046w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Alex-Tyrrell-CTO-of-health-Wolters-Kluwer-1.jpg?resize=252%2C168&quality=50&strip=all 252w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Alex-Tyrrell-CTO-of-health-Wolters-Kluwer-1.jpg?resize=126%2C84&quality=50&strip=all 126w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Alex-Tyrrell-CTO-of-health-Wolters-Kluwer-1.jpg?resize=720%2C480&quality=50&strip=all 720w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Alex-Tyrrell-CTO-of-health-Wolters-Kluwer-1.jpg?resize=540%2C360&quality=50&strip=all 540w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Alex-Tyrrell-CTO-of-health-Wolters-Kluwer-1.jpg?resize=375%2C250&quality=50&strip=all 375w" width="1240" height="827" sizes="auto, (max-width: 1240px) 100vw, 1240px">

Alex Tyrrell, CTO of health, Wolters Kluwer

Wolters Kluwer

Then comes integration. Many solutions promise seamless CRM or ticketing integration, but enterprise environments rarely fit the demo. Lyteson has seen this play out. “On the surface it looks like plug-and-play,” he says. “But if it can’t easily connect to my CRM or pull the right enterprise data, that’s more engineering, and that’s when buying stops looking faster.”

These surprises are shifting how CIOs buy AI. Instead of purchasing static applications, they increasingly buy platforms — extensible environments in which agents can be orchestrated, governed, and replaced.

Remember the critical roles of data architecture and governance

Most IT leaders have figured out the crucial role of data in making AI work. Razat Gaurav, CEO of software company Planview, compares enterprise data to the waters of Lake Michigan: abundant, but not drinkable without treatment. “You need filtration — curation, semantics, and ontology layers — to make it usable,” he says. Without that, hallucinations are almost guaranteed.

Most enterprises operate across dozens or hundreds of systems. Taxonomies differ, fields drift, and data interrelationships are rarely explicit. Agentic reasoning fails when applied to inconsistent or siloed information. That’s why vendors like Planview and Wolters Kluwer embed semantic layers, graph structures, and data governance into their platforms. These curated fabrics allow agents to reason over data that’s harmonized, contextualized, and access-controlled.

For CIOs, this means build-versus-buy is intimately tied to the maturity of their data architecture. If enterprise data is fragmented, unpredictable, or poorly governed, internally built agents will struggle. Buying a platform that supplies the semantic backbone may be the only viable path.

Lyteson, Tyrrell, and Gaurav all stressed that AI governance consisting of ethics, permissions, review processes, drift monitoring, and data-handling rules must remain under CIO control. Governance is no longer an overlay, it’s an integral part of agent construction and deployment. And it’s one layer CIOs can’t outsource.

Data determines feasibility, but governance determines safety. Lyteson describes how even benign UI elements can cause problems. A simple thumbs up or down feedback button may send the full user prompt, including sensitive information, to a vendor’s support team. “You might approve a model that doesn’t train on your data, but then an employee clicks a feedback button,” he says. “That window may include sensitive details from the prompt, so you need governance even at the UI layer.”

Role-based access adds another challenge. AI agents can’t simply inherit the permissions of the models they invoke. If governance isn’t consistently applied through the semantic and agentic layers, unauthorized data may be exposed through natural-language interactions. Gaurav notes that early deployments across the industry saw precisely this problem, including cases where a senior executive’s data surfaced in a junior employee’s query.

Invest early in an orchestration layer, your new architectural centerpiece

The most striking consensus across all three leaders was the growing importance of an enterprise-wide AI substrate: a layer that orchestrates agents, governs permissions, routes queries, and abstracts the foundation model.

Lyteson calls this an opinionated enterprise AI platform, a foundation to build and integrate AI across the business. Tyrrell is adopting emerging standards like MCP to enable deterministic, multi-agent interactions. Gaurav’s connected work graph plays a similar role inside Planview’s platform, linking data, ontology, and domain-specific logic.

This orchestration layer does several things that neither vendors nor internal teams can achieve alone. It ensures agents from different sources can collaborate and provides a single place to enforce governance. Moreover, it allows CIOs to replace models or agents without breaking workflows. And finally, it becomes the environment in which domain agents, vendor components, and internal logic form a coherent ecosystem.

With such a layer in place, the build-versus-buy question fragments, and CIOs might buy a vendor’s persona agent, build a specialized risk-management agent, purchase the foundation model, and orchestrate everything through a platform they control.

Treat the decision to build vs buy as a process, not an event

Gaurav sees enterprises moving from pilots to production deployments faster than expected. Six months ago many were experimenting, but now they’re scaling. Tyrrell expects multi-partner ecosystems to become the new normal, driven by shared protocols and agent-to-agent communication. Lyteson believes CIOs will increasingly manage AI as a portfolio, constantly evaluating which models, agents, and orchestration patterns deliver the best results for the lowest cost.

srcset="https://b2b-contenthub.com/wp-content/uploads/2025/11/Razat-Gaurav-CEO-Planview-2.jpg?quality=50&strip=all 1800w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Razat-Gaurav-CEO-Planview-2.jpg?resize=300%2C200&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Razat-Gaurav-CEO-Planview-2.jpg?resize=768%2C512&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Razat-Gaurav-CEO-Planview-2.jpg?resize=1024%2C683&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Razat-Gaurav-CEO-Planview-2.jpg?resize=1536%2C1024&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Razat-Gaurav-CEO-Planview-2.jpg?resize=1240%2C826&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Razat-Gaurav-CEO-Planview-2.jpg?resize=150%2C100&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Razat-Gaurav-CEO-Planview-2.jpg?resize=1046%2C697&quality=50&strip=all 1046w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Razat-Gaurav-CEO-Planview-2.jpg?resize=252%2C168&quality=50&strip=all 252w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Razat-Gaurav-CEO-Planview-2.jpg?resize=126%2C84&quality=50&strip=all 126w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Razat-Gaurav-CEO-Planview-2.jpg?resize=720%2C480&quality=50&strip=all 720w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Razat-Gaurav-CEO-Planview-2.jpg?resize=540%2C360&quality=50&strip=all 540w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Razat-Gaurav-CEO-Planview-2.jpg?resize=375%2C250&quality=50&strip=all 375w" width="1240" height="827" sizes="auto, (max-width: 1240px) 100vw, 1240px">

Razat Gaurav, CEO, Planview

Planview

Across these perspectives, it’s clear build-versus-buy won’t disappear, but it will become a continuous process rather than a one-time choice.

In the end, CIOs must approach agentic AI with a disciplined framework. They need clarity about which use cases matter and why, and must begin with small, confident pilots, and scale only when results are consistent. They should also build logic where it differentiates, buy where commoditization has already occurred, and treat data curation as a first-class engineering project. It’s important as well to invest early in an orchestration layer that harmonizes agents, enforces governance, and insulates the enterprise from vendor lock-in.

Agentic AI is reshaping enterprise architecture, and the successful deployments emerging today aren’t purely built or purely bought — they’re assembled. Enterprises are buying foundation models, adopting vendor-provided domain agents, building their own workflows, and connecting everything under shared governance and orchestration rails.

The CIOs who succeed in this new era won’t be the ones who choose build or buy most decisively. They’ll be the ones who create the most adaptable architecture, the strongest governance, and the deepest understanding of where each layer of the AI stack belongs.

Decision intelligence: The new currency of IT leadership

As chief digital and technology officer for GSK, Shobie Ramakrishnan is helping one of the world’s most science-driven companies turn digital transformation into a force for human health and impact. Drawing on her deep experience in both biotech and high-tech companies, Ramakrishnan has led the transformation of GSK’s capabilities in digital, data, and analytics and is playing a pivotal role in establishing a more agile operating model by reimagining work.

In today’s fast-paced and disruptive environment, expectations on CIOs have never been higher — and the margin for error has never been smaller. In a recent episode of the Tech Whisperers podcast, Ramakrishnan shared her insights on how to capitalize on IT’s rapid evolution and lead change that lasts.

With new tools, data, and capabilities spurring new opportunities to accelerate innovation, CIOs have entered what Ramakrishnan calls a high-friction, high-stakes leadership moment. She argues that the decisions IT leaders make today will determine whether they will be successful tomorrow. With so much hinging on the quality and speed of those decisions, she believes IT leaders must create the conditions for confident, high-velocity decision-making. After the show, we spent time focusing on what could be the new currency of leadership: decision intelligence. What follows is that conversation, edited for length and clarity.

Dan Roberts: In an era where AI is reshaping the fabric of decision-making, how will leaders navigate a world where choices are co-created with intelligent systems?

Shobie Ramakrishnan: Decision-making in the age of AI will be less about control and more about trust — trust in systems that don’t just execute, but reason, learn, and challenge assumptions. For decades, decision-making in large organizations has been anchored in deterministic workflows and, largely, human judgment that’s supported by a lot of analytics. Machines provide the data, and people make the decisions and typically control the process. That dynamic is changing, and as AI evolves from insight engines to reasoning partners, decisions will no longer be static endpoints. They’ll become iterative, adaptive, and co-created. Human intuition and machine intelligence will operate in fast feedback loops, each learning from the other to refine outcomes.

This shift demands a new leadership mindset, moving from command-and-decide to orchestrate-and-collaborate. It’s not about surrendering authority; it’s about designing systems where transparency, accountability, and ethical guardrails can enable trust at scale. The opportunity is really profound here to rewire decision-making so it’s not just faster, but fundamentally smarter and more resilient. Leaders who embrace this will unlock competitive advantage, and those who cling to control risk being left behind in a world where decisions are definitely no longer going to be made by humans alone.

In the past, decision-making was heavily analytical, filled with reports and retrospective data. How do you see the shift from analysis paralysis to decision intelligence, using new tools and capabilities to bring clarity and speed instead of friction and noise?

Decision-making has long been data-enabled and human-led. What’s emerging with the rise of reasoning models and multimodal AI is the ability to run thousands of forward simulations, in minutes or days sometimes, that can factor in demand shocks, price changes, regulatory shifts, and also using causal reasoning, not just correlation. This opens the door to decisions that are data-led with human experts guiding and shaping outcomes.

In situations I call high-stakes, high-analytics, high-friction use cases or decisions, like sales or supply chain forecasting, or in our industry, decisions around which medicines to progress through the pipeline, there is intrinsic value in making these decisions more precise and making them quicker. The hard part is operationalizing this shift, because it means moving the control point from a human-centered fulcrum to a fluid human-AI collaboration. That’s not going to be easy. If changing one personal habit is hard, you can imagine how rewiring decades of organizational muscle memory — especially for teams whose identity has been built around gathering data, developing insights, and mediating decisions — is going to be when multiple functions, complex, conflicting data sets, and enormous consequences collide. The shift will feel even more daunting.

But this is exactly where the opportunity lies. AI can act as an analyst, a researcher, an agent, a coworker who keeps on going. And it can enrich human insights while stripping away human bias. It can process conflicting data at scale, run scenario simulations, and surface patterns that human beings can’t see, all without replacing judgment or control in the end. This isn’t going to be about removing people; it’s about amplifying that ability to make better calls under pressure.

The final thing I would say is that, historically, in a world of haves and have nots, the advantage has always belonged to the haves, those with more resources and more talent. I think AI is going to disrupt that dynamic. The basis of competition will shift to those who master these human-AI decision ecosystems, and that will separate winners from losers in the next decade plus.

Many organizations still operate in a climate of hesitation, often due to fear of being wrong, unclear accountability, or endless consensus-building. How do you create a culture where people feel empowered and equipped to make decisions quickly and with confidence?

Confident decision-making starts with clarity. I can think of three practical shifts that would be valuable, and I still work hard at practicing them. The first one is to narrow the field so you can move faster, because big decisions often stall because we are juggling too many variables or options at once. Amid a lot of complexity, shrinking the scope and narrowing the focus to essential variables or factors that matter forces both clarity and momentum in decision-making. So focus on the few aspects of the decision that matter most and learn to let go of the rest. In the world we are going into where we will have 10x the volume of ideas at 10x the speed, precision has definite advantage over perfection.

The second tip is about treating risk as a dial and not as a switch. What I mean by that is to recognize that risk isn’t binary; it’s a spectrum that leaders need to calibrate and take positions on, based on where you are in your journey, who you are as a company, and what problems you’re tackling at the moment. There are moments to lean into bold bets, and there are moments where restraint actually protects value. The skill is knowing which is which and then being intentional about it. I do truly believe that risk awareness is a leadership advantage, and I believe just as much that risk aversion can become a liability in the long run.

The third tip is around how we build a culture of confident decision-making and make decisions into a team sport. We do this by making ownership very clear but then inviting constructive friction into the process. I’m a big believer that every decision needs a single, accountable owner, but I don’t believe that ownership means isolation or individual empowerment to just go do something. The strongest outcomes come when that person draws on diverse perspectives from experts — and now I would include AI in the experts list that’s available to people — without collapsing into consensus. Constructive friction sharpens judgment. The art is in making it productive and retaining absolute clarity on who is accountable for the impact of that decision.

Ramakrishan’s perspective reminds us that successful leadership in this era won’t be defined by the amount of data or technology we have access to. Instead, it will be about the quality and speed of the decisions we make, and the trust and purpose behind them. For more valuable insights from her leadership playbook, tune in to the Tech Whisperers.

See also:

Chippio utiliza la IA para devolver al consumidor el control de su factura energética

En un sector tan tradicional como el energético, altamente regulado y dominado históricamente por grandes eléctricas, la compañía Chippio ha emergido como un nuevo actor que viene a cambiar las reglas del juego. Se define como “la primera comercializadora de energía en España impulsada por inteligencia artificial” y basa todo su modelo en un enfoque digital que pretende devolver al usuario el mando de su consumo y su factura. Para ello, según su director general, Pol Brau, ofrece a los consumidores “herramientas para que tomen el control total de su factura de la luz, combinando tarifas a precio de coste con servicios innovadores y la que consideramos la app más avanzada del sector”.

A diferencia de la competencia, Chippio no se considera una comercializadora tradicional con añadidos digitales, sino una empresa tecnológica cuya propuesta de valor se basa en la transparencia y en el empoderamiento del consumidor. Para ello, su aplicación, que permite monitorizar en tiempo real los precios y el consumo, y su copiloto de IA, Emilia, se convierten en las piezas centrales de esa filosofía. “Somos la primera startup del sector en España en aprovechar plenamente la inteligencia artificial para empoderar al usuario”, explica Brau. Esto se materializa en servicios como Smart Charging, que optimiza automáticamente la carga del vehículo eléctrico, o el nuevo Guardián de Precios, un sistema pionero que combina la flexibilidad de la tarifa variable con la estabilidad de una tarifa fija, pero sin permanencia ni condiciones opacas.

La innovación como ADN corporativo

En Chippio, la innovación no es un área aislada, sino el motor de la compañía. “Nuestra estrategia de TI es clara: estamos centrados en el desarrollo de soluciones inteligentes que racionalicen el consumo energético y pongan la tecnología al servicio real del cliente. No innovamos por innovar; innovamos para devolver el control al usuario, mejorar radicalmente la experiencia de cliente y ofrecer herramientas que permitan un ahorro real y fomenten hábitos más sostenibles”, subraya Brau.

De acuerdo con el director general de la compañía, la práctica totalidad de la inversión se destina a TI. “Los ingresos que obtenemos de nuestro negocio se reinvierten íntegramente en seguir desarrollando servicios innovadores y digitales. Estamos en una fase de crecimiento, y contamos con el respaldo estratégico de nuestra matriz, Fortum, para acometer estas inversiones en tecnología”.

Toda la plataforma de Chippio se sustenta en IA y en un stack tecnológico basado en Microsoft Azure, además de integrar algoritmos propios para análisis de precios, envío de alertas y toma de decisiones automatizadas. La IA Emilia, que combina capacidades de ChatGPT con Azure AI, actúa como asistente y guía personalizada para los clientes. “Nuestra IA Emilia ha demostrado ser capaz de incrementar las tasas de conversión a cliente de pago entre un 250% y un 335%. Nos permite ofrecer un servicio altamente personalizado y de calidad con una plantilla ágil y digitalizada”, explica Brau.

Además, continúa el director general, “usamos algoritmos para el análisis de precios y el envío de alertas proactivas. En el caso de productos como Smart Charging, nuestra tecnología se basa en conexiones directas (APIs) con las aplicaciones de los propios fabricantes de vehículos eléctricos. Esto nos permite controlar la carga del vehículo de forma inteligente sin necesidad de que el cliente instale ningún hardware adicional”.

Nueva frontera de la estabilidad energética

Entre las innovaciones presentadas recientemente por la compañía destaca el Guardián de Precios, una herramienta “pionera en España”, según Brau, que “combina la flexibilidad de la tarifa variable (aprovechar los precios bajos) con la estabilidad y tranquilidad de una tarifa fija (protegerse de las subidas)”.

Para ello, el cliente recibe ofertas temporales con un precio fijo 24h competitivo y puede decidir, desde la app, si “congela” ese precio para su próximo ciclo de facturación completo con potencia a precio de mercado, eliminando márgenes opacos como los que establecen las compañías de luz en sus potencias. “Nosotros monitorizamos las tendencias futuras del mercado de la luz y sugerimos cuándo puede ser un buen momento para fijar el precio, permitiendo a los usuarios aprovechar una tarifa fija solo cuando les es más beneficioso”, explica Brau. De esta forma, se evita “que paguen de más estando demasiado tiempo en ellas, activándolo y desactivándolo desde la app sin permanencia”.

El servicio está totalmente integrado en la aplicación móvil, que es el canal a través del cual el usuario recibe la recomendación, y puede activar o desactivar la fijación del precio con total libertad.

El beneficio, según Brau, es doble: tranquilidad y control. “El usuario obtiene lo mejor de los dos mundos: la flexibilidad de la tarifa variable, para aprovechar los precios bajos, y la estabilidad de una tarifa fija cuando hay incertidumbre. Le permite asegurar una tarifa estable en periodos de mayor incertidumbre y volver al mercado variable cuando este resulta más favorable”.

Pol Brau, director general de Chippio

Pol Brau, director general de Chippio.

Chippio

IA al servicio del usuario y de la eficiencia del sector

La IA se ha convertido en una palanca clave para la innovación en el sector energético. Su capacidad para optimizar procesos, anticipar decisiones y personalizar servicios está redefiniendo el modelo operativo de las compañías. Según Brau, para las compañías como Chippio, la IA es “un motor de crecimiento y eficiencia”. Para los consumidores, “es la herramienta definitiva de empoderamiento”. Primero, porque “les permite entender un mercado que es tradicionalmente complejo y opaco. Segundo, les ofrece guías y consejos personalizados para el ahorro energético y para tomar decisiones más eficientes y sostenibles. Y tercero, automatiza decisiones complejas; por ejemplo, nuestro Smart Charging decide por ellos cuál es la hora más barata para cargar el coche, generándoles ahorros de hasta 600 euros anuales”.

Según el director general de Chippio, la irrupción de tecnologías disruptivas obligará al sector energético a pasar de modelos opacos y centrados en el activo a modelos digitales, transparentes y totalmente orientados al cliente. En este contexto,Chippio continuará reforzando su plataforma tecnológica para mantener un modelo de servicio diferencial en un mercado donde, según Brau, muchas compañías se centran en la captación y no en mejorar la experiencia real de sus clientes. “Queremos seguir ofreciendo una experiencia excelente en un sector donde rara vez se prioriza al usuario”.

“AI에 맞춰 재펞되는 넀튞워크 읞프띌” 2025년 가장 죌목할 만한 넀튞워킹 읞수합병

2025년은 읞수 합병읎 활발한 한핎였닀. 로읎터의 볎도에 따륎멎, 곚드만 삭슀는 2025년 발표 Ʞ쀀 읞수·합병 규몚가 역사상 두 번짞로 큎 것읎띌고 전망했닀.

넀튞워킹 분알에서는 2025년 성사된 대형 딜 상당수가 였래전부터 예고된 것읎었닀. 예륌 듀얎, HPE가 죌니퍌 넀튞웍슀 읞수륌 최종 마묎늬하는 데만 18개월읎 넘는 시간읎 걞렞닀. 팔로알토 넀튞웍슀의 사읎버아크(CyberArk) 읞수처럌 250억 달러 규몚의 큰 거래가 있는 반멎, 규몚는 작지만 영향력읎 큰 읞수합병도 있닀. 여러 읞수합병읎 AI 역량을 쀑심에 두고 분산 자원 접귌곌 볎안을 위한 더 강력한 시슀템을 구축하렀는 전략곌 맞묌렀 있닀.

엔터프띌읎슈 넀튞워킹의 믞래륌 좌우할 10여 걎의 읞수합병을 알파벳 순윌로 정늬했닀.

아칎마읎, 퍌믞옚 읞수

아칎마읎는 엣지 역량 강화륌 목표로 웹얎셈랔늬 슀타튞업 퍌믞옚(Fermyon)을 읞수할 계획읎띌고 발표했닀. 퍌믞옚은 웹얎셈랔늬륌 람띌우저 영역에서 서버 사읎드와 엣지 배포 영역윌로 확장하는 데 Ʞ여했닀. WASI(WebAssembly System Interface) 표쀀화가 임박하멎서 읎번 거래는 웹얎셈랔늬 사용자 확대에 힘을 볎타 수 있닀는 분석읎 나옚닀.

아늬슀타, 벚로큎띌우드 읞수

아늬슀타 넀튞웍슀(Arista Networks)는 7월 람로드컎의 벚로큎띌우드(VeloCloud) SD-WAN 사업부륌 읞수했닀. 읞수 ꞈ액은 밝히지 않았닀. 아늬슀타 입장에서 SD-WAN Ʞ술을 읞수핎 부족했던 넀튞워킹 퍌슐 한 조각을 메우고, SD-WAN곌 SASE, 지사 넀튞워킹 전략을 강화하는 계Ʞ가 됐닀. 아늬슀타 CEO 제읎슈늬 욞랄은 아늬슀타의 캠퍌슀 및 ꎑ역 넀튞워크 사업 규몚가 현재 7억 5,000만 달러에서 2026년 말까지 12억 5,000만 달러로 성장할 것읎띌고 전망했닀.

AT&T, 룚멘 ꎑ섬유 사업 읞수

AT&T는 5월 룚멘(Lumen)의 맀슀 마쌓(Mass Market) ꎑ섬유 사업 읞수 계획을 발표했닀. 57억 5,000만 달러 규몚읞 읎번 거래는 통신사가 특히 읞공지능 확산에 따륞 튞래픜 슝가에 대응하멎서 ꎑ섬유 Ʞ술을 얌마나 쀑시하는지륌 볎여쀀닀. AT&T에 따륎멎, 룚멘 맀슀 마쌓 ꎑ섬유 자산에는 앜 100만 명 ꎑ섬유 가입자와 400만 곳읎 넘는 ꎑ섬유 서비슀 제공 위치가 포핚되얎 있닀.

시슀윔, 에슈더람슀와 뉮럮팹뾌멭 읞수

시슀윔는 지난달 음성 간 통번역 Ʞ술을 볎유한 비상장 AI 소프튞웚얎 업첎 에슈더람슀(EzDubs) 읞수륌 완료했닀고 발표했닀. 시슀윔는 자사 협업 솔룚션에서 말투와 억양까지 볎졎하는 싀시간 음성 번역 등 찚섞대 Ʞ능을 제공하는 데 에슈더람슀의 Ʞ술을 활용할 계획읎닀. 11월에는 자첎 데읎터륌 활용핎 도메읞 특화 SLM을 구축할 수 있는 생성형 AI 플랫폌을 제공하는 AI 플랫폌 êž°ì—… 뉮럮팹뾌멭(NeuralFabric)도 읞수했닀.

윔얎위람, 윔얎 사읎얞티픜 읞수

엔비디아의 투자륌 받은 AI 큎띌우드 서비슀 업첎 윔얎위람(CoreWeave)는 암혞화폐 채굎 업첎 윔얎 사읎얞티픜(Core Scientific)을 앜 90억 달러에 읞수했닀. 윔얎위람는 읎번 읞수로 AI 및 고성능 컎퓚팅(HPC) 워크로드 수요 슝가에 대응하Ʞ 위핎 계앜된 1.3Ʞ가와튞 규몚 전력을 확볎하게 됐닀고 밝혔닀. 윔얎위람는 읎번 거래로 직접 볎유·욎영하는 데읎터섌터 자산읎 확대돌 수직 통합 구조가 강화되고, 엔터프띌읎슈 및 연구 Ʞꎀ 고객을 위한 GPU êž°ë°˜ 서비슀 확장에 속도륌 낌 수 있닀고 섀명했닀.

F5, 칌늜소AI, 플레치, 맚티슀넷 읞수

F5는 아음랜드 더랔늰에 볞사륌 둔 칌늜소AI(CalypsoAI)륌 1억 8,000만 달러에 읞수했닀. 칌늜소AI의 플랫폌은 서로 닀륞 몚덞곌 업첎, 환겜 전반을 볎혞하는 ‘추론 겜계(Inference Perimeter)’륌 구축하는 Ʞ능을 제공한닀. F5는 칌늜소AI의 적응형 AI 볎안 역량을 자사의 애플늬쌀읎션 딜늬버늬 및 시큐늬티 플랫폌(ADSP)에 통합할 계획읎띌고 밝혔닀.

F5는 또 에읎전틱 AI 및 위협 ꎀ늬 슀타튞업 플레치(Fletch)륌 읞수핎, 왞부 위협 읞텔늬전슀와 낎부 로귞륌 싀시간 우선순위 읞사읎튞로 전환하는 플레치의 Ʞ술곌 에읎전틱 AI Ʞ능을 ADSP에 더할 예정읎닀.

마지막윌로 큎띌우드 넀읎티람 가시성 강화륌 위핎 슀타튞업 맚티슀넷(MantisNet)을 읞수했닀. F5 랔로귞에 따륎멎, 맚티슀넷은 eBPF êž°ë°˜ 컀널 레벚 텔레메튞늬륌 활용핎 암혞화 프로토윜 튞래픜 활동에 대한 싀시간 읞사읎튞륌 제공하고, 성능 저하 없읎 가장 파악하Ʞ 얎렀욎 튞래픜까지 가시성을 확볎하도록 지원한닀.

HPE, 죌니퍌 읞수 마묎늬

7월에 최종 마묎늬된 134억 달러 규몚의 읎번 거래로 HPE의 넀튞워킹 사업 규몚는 사싀상 두 배가 됐고 AI Ʞ술 역량도 대폭 강화됐닀. 퓚처럌 귞룹(Futurum Group)은 거래 종결 직후 발표한 볎고서에서 읎번 읞수가 엔터프띌읎슈 캠퍌슀, 데읎터섌터, 통신사업자, 큎띌우드 넀튞워킹을 아우륎는 통합 포튞폎늬였륌 구성하는 토대륌 마렚했닀고 평가했닀.

퓚처럌 귞룹은 “읎번 읞수로 방화벜, 서비슀 엣지, 제로 튞러슀튞 아킀텍처 전반을 아우륎는 통합 넀튞워크 볎안 제품을 제공할 수 있는 Ʞ회가 생게닀”띌며, “통합 회사는 ‘넀튞워크륌 위한 AI’와 ‘AI륌 위한 넀튞워크’띌는 두 시장 Ʞ회륌 몚두 공략하게 될 것”읎띌고 분석했닀.

IBM, 하시윔프 읞수 최종 완료

IBM은 지난 2월 64억 달러에 읞수한 하시윔프(HashiCorp)륌 전 섞계 데읎터섌터에 자동화 및 볎안 Ʞ술을 확산하는 데 활용할 것읎띌고 밝혔닀. IBM은 하시윔프의 자동화 Ʞ술을 레드햇, 왓슚엑슀, 데읎터 볎안, IT 자동화, 컚섀팅 사업 전반에 통합할 계획읎닀. 하시윔프의 대표 제품에는 여러 큎띌우드와 옚프레믞슀 환겜에 걞쳐 읞프띌·넀튞워크·가상 컎포넌튞륌 프로비저닝할 수 있게 핎죌는 테띌폌(Terraform) 팚킀지가 포핚되얎 있닀.

ë„·êž°ì–Ž, 엑시엄 읞수

ë„·êž°ì–Ž(Netgear)는 2025년 6월 SASE 포튞폎늬였 확대륌 위핎 비상장 볎안 전묞업첎 엑시엄(Exium)을 읞수했닀. 소비자용 넀튞워킹 하드웚얎로 잘 알렀진 넷Ʞ얎는 쀑견·쀑소Ʞ업을 위한 엔터프띌읎슈꞉ 볎안 솔룚션윌로 묎게 쀑심윌로 옮Ʞ고 있닀. ë„·êž°ì–Ž 포 비슈니슀(Netgear for Business) 부묞 사장 겞 쎝ꎄ 책임자읞 프띌몚드 바드자테는 넀튞워크월드와의 읞터뷰에서 “넷Ʞ얎의 Ʞ반을 고렀할 때, 쀑소·쀑견 êž°ì—… 고객의 요구륌 핎결할 수 있는 넷Ʞ얎만의 Ʞ회가 있닀고 볞닀”띌고 말했닀. 또, “쀑소·쀑견 êž°ì—… 고객은 대Ʞ업곌 동음한 수쀀의 신뢰성을 원하멎서도 귞에 걞맞은 지원까지 Ʞ대하는 독특한 요구륌 갖고 있닀”띌고 덧붙였닀.

녞킀아, 읞플넀띌 읞수

녞킀아는 23억 달러 규몚의 읞플넀띌(Infinera) 읞수륌 통핎 DWDM Ʞ술 역량을 대폭 확대했고, 읎륌 Ʞ반윌로 하읎퍌슀쌀음러 및 통신사업자꞉ 솔룚션을 강화할 계획읎닀.

팔로알토 넀튞웍슀, 사읎버아크 읞수

팔로알토 넀튞웍슀는 7월 250억 달러 규몚의 사읎버아크(CyberArk) 읞수 계획을 발표핮 넀튞워크 액섞슀 및 ID ꎀ늬 포튞폎늬였륌 확장했닀. 에베레슀튞 귞룹(Everest Group)은 “팔로알토는 읎번 읞수륌 뚞신·에읎전튞 ID 볎혞륌 위한 궁극적읞 도앜의 Ʞ회로 삌고 있닀. AI êž°ë°˜ 위협 시대에 가장 뜚거욎 영역 쀑 하나닀”띌고 평가했닀. 또, “읎번 읞수는 죌요 사읎버볎안 업첎가 AI êž°ë°˜ 엔터프띌읎슈의 필수 파튞너로 자늬맀김하Ʞ 위핎 ì–Žë–€ 방향윌로 슀슀로륌 재정의하렀 하는지륌 볎여죌는 지각 변동꞉ 신혞”띌고 분석했닀.

퀄컎, 알파웚읎람 섞믞 읞수

퀄컎은 데읎터섌터 넀튞워킹 및 컎퓚튞 포튞폎늬였 확대륌 위핎 영국 하드웚얎 제조사 알파웚읎람 섞믞(Alphawave Semi)륌 24억 달러에 읞수했닀. 알파웚읎람 섞믞는 맞춀형 싀늬윘, 칩렛, ASIC, 반도첎 지식재산(IP)을 포핚핎 닀양한 유선 연결 및 컎퓚튞 Ʞ술을 볎유하고 있닀. 퀄컎의 목표는 점점 더 고도화되는 AI 워크로드륌 지원하Ʞ 위핎 퀄컎 프로섞서와 알파웚읎람의 고속 연결·컎퓚튞 Ʞ술을 결합하는 것읎닀. 묎얎 읞사읎잠 ì•€ 슀튞래티지의 대표 애널늬슀튞 ë§· 킎벌은 6월 읞수 발표 당시 “퀄컎읎 데읎터섌터 CPU 시장에 얌마나 진지하게 뛰얎듀고 있는지 볎여죌는 가장 강력한 슝거가 바로 읎번 읞수”띌고 평가했닀.
dl-ciokorea@foundryco.com

“수직읎얎도 첎계적 구조가 더 낫닀···MZ섞대, 자윚·책임 êž°ë°˜ 묞화볎닀 안정 추구” 자소섀닷컎 조사

늬멀버 섀묞조사 자소섀닷컎

늬멀버

자소섀닷컎은 MZ섞대가 Ʞ성섞대볎닀 조직에 얜맀읎Ʞ볎닀 자윚성을 더 쀑시한닀는 읞식읎 있었지만, 싀제 조사 결곌는 읎와 닀륞 양상을 볎였닀고 섀명했닀. 신입 구직자듀은 막연한 자윚성볎닀 첎계적읞 시슀템 속에서 직묎 전묞성을 킀우고, 안정적읞 환겜에서 성장하Ʞ륌 원하는 겜향읎 더 뚜렷하게 나타났닀는 것읎닀.

특히, êž°ì—… 묞화에 대한 선혞도에서 읎러한 겜향읎 드러났닀. ‘선혞하는 êž°ì—… 묞화’륌 묻는 질묞에 전첎 응답자의 89.8%가 ‘첎계적읎지만 닀소 수직적읞 대Ʞ업 묞화’륌 선택했닀. 읎와 대조적윌로, ‘자윚적읎지만 몚든 것을 슀슀로 책임젞알 하는 슀타튞업 묞화’륌 선택한 비윚은 10.2%에 귞쳀닀. MZ 췚업쀀비생듀은 조직의 자윚성볎닀 안정된 구조와 시슀템을 통핎 성곌륌 달성하렀는 의지가 강핚하든 것읎닀.

자소섀은 읎러한 결곌가 업묎륌 지도핎 쀄 선배와 명확한 맀뉎얌읎 갖춰진 환겜을 성장에 유늬하닀고 판당한 것윌로 분석했닀. 검슝된 시슀템 속에서 불필요한 시행착였는 최소화하고 직묎 전묞성을 횚곌적윌로 Ʞ륎는 것을 싀늬적 선택윌로 여Ʞ는 요슘 섞대의 성향읎 뚜렷하게 반영된 것윌로 풀읎된닀.

성장 방식에 있얎서도 ‘직묎 전묞성’에 대한 니슈가 뚜렷하게 드러났닀. ‘더 선혞하는 성장 환겜’을 묻는 질묞에 응답자의 곌반읞 59.0%가 ‘나의 직묎만 깊게 파고듀 수 있는 닚음 직묎 집쀑형’을 택했닀. 곌거 닀양한 부서에서의 겜험을 통핎 제너럎늬슀튞로 성장하는 것을 믞덕윌로 여게던 것곌는 확연히 대조적읞 양상읎닀.

자소섀은 읎륌 입사 쎈Ʞ부터 확싀한 전묞성을 Ꞟ러 대첎 불가능한 읞재가 되고자 하는 요슘 섞대의 태도가 반영된 것읎띌고 핎석했닀. 읎러한 전묞성 지향 성향은 최귌 Ʞ업듀의 채용 튞렌드가 직묎 쀑심윌로 재펞된 흐늄곌도 정확히 맞묌늰닀고 덧붙였닀.

읎 배겜에는 평생직장의 개념읎 사띌지고 있는 추섞도 한몫했닀. 직장읞듀의 읎직읎 볎펞화된 고용 환겜 속에서, 구직자듀은 개읞의 직묎 겜쟁력곌 전묞성을 갖추는 것읎 불확싀한 믞래에 생졎할 수 있는 가장 확싀한 전략읎띌고 판당한 것윌로 볎읞닀.

늬멀버앀컎퍌니 자소섀마쌀팅팀 읎선정 팀장은 “읎번 조사는 요슘 MZ섞대 구직자듀읎 귞듀의 불확싀한 믞래륌 대비하Ʞ 위핎 가장 합늬적읎고 첎계적읞 방법을 찟는 ‘전략적 섞대’임을 볎여죌었닀”멎서 “앞윌로도 자소섀닷컎은 신입 췚쀀생듀의 진정한 성장을 위핎 첎계적, 전략적윌로 성공적읞 컀늬얎의 첫발을 낮디딜 수 있도록 돕는 ì·šì—… 성공 파튞너가 될 것”읎띌고 밝혔닀.
jihyun.lee@foundryco.com

“강력하지만 흩얎젞 있닀” 늬읞벀튞 2025에서 드러난 AWS AI 슀택의 통합 한계

AWS는 12월 쎈 믞국 띌슀베읎거슀에서 엎늰 연례 컚퍌런슀 늬읞벀튞(re:Invent) 2025에서 큎띌우드 선두 Ʞ업윌로서는 읎례적윌로 신쀑한 태도륌 드러냈닀. 엔터프띌읎슈 AI 분알에서 여전히 의제륌 죌도할 수 있음을 입슝핎알 한닀는 압박읎 행사 전반에 걞쳐 영향을 믞친 것윌로 볎읞닀.

마읎크로소프튞(MS)와 구Ꞁ읎 통합형 AI 슀택곌 워크플로우 êž°ë°˜ 에읎전튞 플랫폌을 앞섞워 CIO듀의 ꎀ심을 강화하는 가욎데, AWS 최고겜영자 맀튞 가뚌곌 죌요 임원진은 신규 칩, 몚덞, 플랫폌 Ʞ능을 연읎얎 공개하며 CIO에게 가장 폭넓고 욎영에 최적화된 AI Ʞ반을 제공할 수 있닀는 메시지륌 강화하렀 했닀.

귞러나 분석가듀은 AWS가 읎러한 목표륌 달성했닀고 볎지 않는 분위Ʞ닀.

딜로읎튞에서 최고 큎띌우드 전략 책임자로 활동했던 프늬랜서 컚섀턎튞 데읎비드 늰시컎은 “전볎닀 가까워지ꞎ 했지만, 아직 완성 닚계에는 읎륎지 못했닀”띌고 말했닀.

강력하지만 ‘완성형 솔룚션’윌로 볎Ʞ엔 부족

새로욎 Ʞ능곌 서비슀륌 활용하Ʞ 위핎 필요한 엔지니얎링 작업은 AWS의 닀륞 발표에서도 반복됐닀. 읎로 읞핎 CIO듀의 AI 로드맵을 닚순화하Ʞ볎닀 였히렀 혌란을 쀄 수 있닀는 우렀가 제Ʞ됐닀.

행사 읎틀짞, 슀와믞 시바수람띌마니얞은 베드록 에읎전튞윔얎(Bedrock AgentCore), 베드록(Bedrock), 섞읎지메읎컀 AI(SageMaker AI) 전반에 새로욎 Ʞ능을 추가했닀고 발표했닀. Ʞ업읎 에읎전튞형 AI 파음럿을 욎영 환겜윌로 확장하도록 지원하겠닀는 췚지였지만, 늰시컎은 Ʞ볞적윌로 개발자의 작업을 가속하는 도구 제공에 쎈점읎 ë§žì¶°ì ž 있을 뿐, 여전히 ‘플러귞 ì•€ 플레읎형 에읎전튞’륌 Ʞ볞 제공하는 방식곌는 거늬가 있닀고 지적했닀.

더큐뾌 늬서치의 수석 애널늬슀튞 폎 낎셔워티 역시 바읎람 윔딩 도구 킀로(Kiro) 업데읎튞나 데람옵슀 닚순화륌 위핎 도입된 신규 개발자 쀑심 에읎전튞에서도 같은 묞제가 반복됐닀고 섀명했닀. 낎셔워티는 “AWS는 MS의 윔파음럿 슀튜디였와 구Ꞁ 제믞나읎 에읎전튞륌 정멎에서 겚냥하고 있윌며, Ʞ능 격찚는 쀄얎듀고 있닀”띌고 말했닀. 읎얎 “하지만 여전히 엔지니얎링 부닎읎 졎재한닀. MS와 구Ꞁ은 생산성 도구와의 통합읎 더 쎘쎘하닀. AWS도 따띌잡고 있지만, 애플늬쌀읎션 환겜에 따띌 팀읎 구현 작업에 더 많은 시간을 투입핎알 할 수 있닀”띌고 전했닀.

통합된 AI 플랫폌 전략을 제공하는 잡멎에서도 AWS는 큰 진전을 볎여죌지 못했닀. 분석가듀은 AWS가 복잡한 닚펞화륌 핎소하Ʞ 위핎 볎닀 명확한 ML옵슀 겜로, 베드록곌 섞읎지메읎컀 간의 깊은 통합, 몚덞 구축에서 싀제 에읎전튞 대규몚 배포로 읎얎지는 ‘쀀비된 팚턎’을 제시할 것윌로 Ʞ대했닀.

귞러나 늰시컎은 베드록·섞읎지메읎컀·데읎터플레읞 간 연결 구조륌 AWS가 충분히 묞서화하거나 지원하지 못했닀고 평가했닀. 귞는 “여전히 핵심 서비슀듀읎 충분히 통합돌 있지 않닀”띌며 “거의 몚든 작업에 서로 닀륞 접귌법읎 낚아 있얎 음ꎀ된 흐늄을 만듀Ʞ 얎렵닀”띌고 지적했닀.

늰시컎은 AWS의 ì ‘ê·Œ 방식읎 MS와 구Ꞁ의 전략곌는 극명하게 대비된닀고도 얞꞉했닀. MS는 팹뾌멭(Fabric)을 쀑심윌로, 구Ꞁ은 데읎터와 버텍슀 AI 슀택을 Ʞ반윌로 볎닀 음ꎀ된 엔드 투 엔드 슀토늬륌 제시하고 있닀는 것읎닀.

만듀 것읞가 삎 것읞가

AWS의 발표 낎용을 확읞한 ë’€ 엔터프띌읎슈 AI 로드맵을 확정하렀던 CIO듀은 닀시 익숙한 갈늌Ꞟ 앞에 서게 됐닀. 강력한 êž°ë°˜ 도구륌 선택할 것읞지, 아니멎 슉시 사용할 수 있는 완성형 플랫폌을 선택할 것읞지닀.

가튞너 부사장 애널늬슀튞 짐 헀얎는 CIO듀읎 AWS가 새롭게 추가한 몚듈형 슀택을 충분히 활용하렀멎 아킀텍처 욎영 원칙, ML옵슀 성숙도, 데읎터 거버넌슀 Ʞ반을 슀슀로 갖추고 있는지 평가핎알 한닀고 섀명했닀.

헀얎는 “장Ʞ적읞 통제력곌 맞춀화륌 쀑시하는 CIO에게 AWS는 비교할 수 없는 유연성을 제공한닀. 반멎 속도와 닚순성, 맀끄러욎 통합을 우선한닀멎 2026년에도 MS나 구Ꞁ읎 더 싀용적읞 선택지가 될 수 있닀”띌고 말했닀.

ê²°êµ­ 선택의 볞질은 얞제나 귞렇듯, Ʞ업읎 AI 플랫폌을 직접 구축할 것읞지, 아니멎 사서 사용할 것읞지에 달렀 있닀.
dl-ciokorea@foundryco.com

음묞음답 | Ʞ술 늬더의 닀음 닚계···GPI CIO가 말하는 ‘읎사회 진출을 쀀비하는 법’

귞래픜 팚킀징 읞터낎셔널(GPI)의 CIO 비쉬 나렌드띌는 였랜 Ʞ간에 걞쳐 Ʞ술팀을 닚순히 솔룚션을 구현하는 조직읎 아니띌 싀질적읞 비슈니슀 묞제륌 핎결하는 조직윌로 재펞핎 왔닀. 읎런 접귌은 가시적 성곌륌 읎끌얎냈을 뿐 아니띌, 귞의 읎사회 활동 Ʞ반을 닀지는 데도 쀑요한 역할을 했닀. 나렌드띌는 부서 간 신뢰 구축곌 전략적 넀튞워킹에 쎈점을 둔 5년간의 첎계적읞 읎사회 진출 계획을 통핎, Ʞ술 임원읎띌도 비슈니슀 늬더십을 갖추멎 읎사회와 같은 거버넌슀 역할로 자연슀럜게 활동 범위륌 넓힐 수 있음을 볎여쀬닀.

비상장 대Ʞ업 읎사회에 찞여하고 있닀. ê·ž 자늬에 얎떻게 였륎게 됐나?

컀늬얎 쎈찜Ʞ부터 쌓아옚 몚든 겜험읎 ê²°êµ­ 읎사회 역할로 읎얎졌닀. 읎 목표륌 맀우 의도적윌로 추구했닀. 앜 5년 전, 욎영 책임자 읎상의 진로륌 고믌하Ʞ 시작했고, ê·ž 곌정에서 컚섀팅, 자묞, 읎사회 활동 등읎 후볎로 떠올랐닀. 아묎것도 하지 않는 것은 ê³ ë € 대상읎 아니었닀.

당시 많은 읎사회가 사읎버볎안곌 튞랜슀포메읎션 전략을 녌의하고 있었고, CEO나 CFO 쀑심의 Ʞ졎 읎사회륌 볎완할 CIO의 목소늬가 필요했닀. 읎러한 Ʞ회륌 볎고 읎사회 진출을 위한 쀀비륌 시작했닀.

뚌저 신뢰하는 사람듀에게 조얞을 구했닀. 귞듀은 포지셔닝을 정늬하고 읎력서륌 만드는 데 큰 도움을 쀬닀. 조얞에 따륎멎 욎영 책임자와 읎사회 멀버는 성격읎 크게 달랐닀. 특히 읎사회에서는 Ʞ졎에 사용하던 Ʞ술 및 사읎버 볎안 용얎륌 ì“°êž° 얎렀웠Ʞ에 죌의가 필요했닀. 읎 왞에 판맀, 조달, 품질 등 닀양한 분알에서 쌓은 직묎 겜험곌 현재 GPI에서 대ꞈ 지꞉, 수ꞈ, ꞉여, 출장겜비 처늬 등 Ꞁ로벌 비슈니슀 서비슀륌 책임지고 있닀는 점을 강조하띌는 조얞읎 있었닀.

읎는 읎사회 구성원 몚두가 읞재 개발, 시장 전략, 고객 서비슀, 욎영 등 고유한 전묞성을 갖고 있닀는 점을 볎여쀀닀. Ʞ술 겜험은 읎사회에 듀얎섀 수 있는 ‘입장권’음 뿐읎며, ê·ž 읎상의 영역에도 Ʞ여핎알 한닀는 것읎 핵심읎었닀.

슀슀로륌 얎떻게 포지셔닝했윌며, 읎사회 진출 쀀비는 얎떻게 시작했나?

제조 및 공꞉망, 소프튞웚얎 개발, 손익(P&L) 책임을 맡아옚 겜력을 돌아볎멎서, 디지턞 튞랜슀포메읎션곌 공꞉망 최적화륌 필요로 하는 곳읎 전묞 분알띌고 판닚했닀. 귞래서 슀슀로륌 시장 진출 및 튞랜슀포메읎션을 죌도하는 늬더로 포지셔닝했닀.

읎사회 진출 쀀비륌 볞격적윌로 시작하Ʞ 전에 뚌저 CEO의 승읞을 받았고, CFO와 CHRO에게도 계획을 공유했닀. ê·ž 후 넀튞워킹을 시작했닀. 읎사회 의석의 70%가 Ʞ졎 읎사회 구성원의 추천 넀튞워크륌 통핎 채워진닀는 사싀을 알고 있었Ʞ 때묞에, 읎사회에 있거나 읎사회륌 자묞하는 읞묌듀을 전부 목록화했닀. 여Ʞ에는 죌요 회계법읞곌 볎상 컚섀턎튞도 포핚됐닀.

읎후 분Ʞ마닀 넀닀섯 명에게 연띜핎 ꎀ심 분알와 읎력서륌 공유했윌며, 상장 Ʞ업곌 비상장 Ʞ업의 읎사회 몚두에 ꎀ심읎 있닀고 밝혔닀.

현재 비상장 Ʞ업의 읎사회에서 활동하고 있닀. ì–Žë–€ Ʞ여륌 하고 있나?

감사위원회와 읞사·거버넌슀위원회에서 활동하고 있닀. 여Ʞ에는 신규 읎사 후볎륌 ì°Ÿêž° 위핎 읞맥을 활용하는 음도 포핚된닀. 지ꞈ의 회사는 재고 회전윚읎 핵심읞 유통 Ʞ업읎닀. B2B Ʞ업에서 전자상거래 Ʞ반의 맀출 확대륌 지원한 겜험을 읎사회 활동에도 활용하고 있닀.

하지만 귞볎닀 더 쀑요한 Ʞ여는 Ʞ술 전묞성곌 비슈니슀 늬더십을 결합한 ꎀ점을 제시하는 데 있닀. GPI의 CIO로서 슀슀로륌 비슈니슀 늬더로 읞식핎 왔닀. 회사의 비전곌 욎영 계획을 출발점윌로 삌아, 조직의 자원을 비슈니슀 영향력 찜출에 집쀑한닀. 예륌 듀얎, 공장별로 분산돌 있던 Ʞ술 조달을 쀑앙화핎 구맀력을 높였고, 읎륌 통핎 욎영비륌 절감했닀. 지ꞈ은 에읎전틱 AI륌 활용핎 더 빠륞 속도와 비용 절감을 싀현하고 있닀. 읎는 닚순한 Ʞ술 구현읎 아니띌 비슈니슀 늬더십의 결곌닀.

비슈니슀 늬더십을 조직 묞화에 얎떻게 뿌늬낎늬고 있나?

Ʞ술 Ʞ반의 산업 Ʞ업을 성장시킀는 힘은 최고 수쀀의 개발자륌 채용하는 데서 나였지 않는닀. 현장을 직접 방묞하고, 고객 서비슀팀 옆에 앉아 싀제 업묎 겜험을 읎핎하는 Ʞ술팀에서 나옚닀. Ʞ자가 최전선의 소식을 알Ʞ 위핎 군대와 핚께 움직읎듯, Ʞ술팀을 욎영 조직 안에 배치핎 싀제 묞제륌 핎결하도록 한닀. 직속 직원듀은 읎핎ꎀ계자 회의가 있윌멎 낮 회의는 걎너뛎닀.

시니얎 늬더듀은 Ʞ술적 깊읎륌 갖춰알 하지만, ê·ž 곌정에서 비슈니슀 도메읞 지식도 핚께 쌓게 된닀. 예륌 듀얎, SAP 팀 늬더는 SAP Ʞ술볎닀 제조 공정에 대한 지식을 더 많읎 활용한닀. 귞는 현장의 몚든 자산곌 ê·ž 자산읎 제품을 얎떻게 만드는지 알고 있윌며, 읎륌 시슀템에도 반영할 수 있닀. SAP륌 얎떻게 구현하느냐가 아니띌 ‘곚판지 상자륌 얎떻게 생산할 것읞가’륌 뚌저 떠올늬는 사람읎 더 큰 가치륌 만든닀는 뜻읎닀.

팀의 한 Ʞ술 늬더는 탁월한 직원 ꎀ늬 역량곌 강한 싀행력을 갖추고 있었고 성장 의지도 컞지만, GPI에서 늬더십을 발휘하렀멎 비슈니슀 지식읎 필수읎Ʞ 때묞에 역량만윌로는 한계가 있었닀. 귞래서 귞륌 애플늬쌀읎션 분알로 읎동시쌰닀. 닚Ʞ적윌로는 도전적 선택읎었지만, 비슈니슀 지식을 개발하Ʞ 위한 전략적 배치였닀. IT 조직의 비슈니슀 늬더십을 강화하렀멎 구성원을 익숙한 영역에서 꺌낎 싀제 비슈니슀가 얎떻게 돌아가는지 더 깊읎 배우게 핎알 한닀.

팀읎 ‘비슈니슀’띌고 말하멎 읎륌 재묎, 욎영, 판맀 등윌로 구첎화하도록 한닀. 의사소통을 위핎 읎런 구분읎 필요하지만, IT와 비슈니슀륌 분늬된 영역윌로 볌 수는 없닀. 서로 닀륞 Ʞ능음 뿐, 한 조직 안에서 핚께 움직읎는 역할읎닀.

GPI에서 공유 서비슀륌 새로 맡았을 때, 합류한 팀은 왜 CIO 조직에 속핎알 하는지 읎핎하지 못했닀. 귞듀의 얞얎륌 읎핎하고 소통할 수 있닀는 점을 슝명핎알 했닀. 닚순히 윔딩만 하는 Ʞ술자가 얎느 날 갑자Ʞ 상사로 등장한 것읎 아니띌는 점을 볎여쀘알 했던 것읎닀. 귞래서 부서명도 정볎 Ʞ술(IT)에서 ‘튞랜슀포메읎션 및 Ʞ술’로 바꿚닀.

연말 은퇎 후 읎사회 활동에 더 집쀑할 계획읎띌고 밝혔닀. 최귌 AI 도입읎 확산되는 흐늄을 얎떻게 볎고 있나?

음부 읎사회에서는 CEO 직속윌로 AI 늬더륌 영입하는 방안읎 녌의되고 있닀. 하지만 Ʞ업의 전환을 읎끄는 역할은 CIO가 맡아알 한닀고 볞닀. CIO와 Ʞ술 조직은 회사의 êž°ë°˜ 시슀템을 욎영하며, ê·ž 곌정에서 몚든 업묎 흐늄을 가장 넓고 깊게 읎핎한닀. CIO가 전사적 전환을 읎끌고 있닀멎, AI는 ê·ž 전환을 뒷받칚하는 여러 Ʞ술 가욎데 하나로 자늬 잡아알 한닀. 묌론 AI는 파ꎎ적 Ʞ술읎지만, 귞렇Ʞ 때묞에 CIO가 읎끌얎알 한닀고 생각한닀.

만앜 귞렇지 않윌멎 CIO 조직읎 AI 늬더 산하로 듀얎가 두 조직의 역할읎 뒀섞읎거나 닚절될 위험읎 생ꞎ닀. 또한 Ʞ졎 조직곌 충분한 ꎀ계와 비슈니슀 맥띜을 갖추지 못한 AI 늬더가 합류핎 낎부에서 ‘거부 반응’을 음윌킬 수 있닀. 연구 개발(R&D) 조직 수쀀에서는 별도의 AI 늬더가 의믞 있을 수 있지만, êž°ì—… 환겜에서는 전첎 디지턞 전략곌 욎영 맥띜을 가장 깊읎 읎핎하는 CIO가 AI 늬더십을 맡는 것읎 더 적합하닀고 볞닀.
dl-ciokorea@foundryco.com

AI 정확도 높읎는 ‘맥띜’ 강화···섞음슈포슀, 읞포맀티칎 통합윌로 데읎터 품질·음ꎀ성 제고

AI 프로젝튞 상당수가 싀팚한닀는 연구 결곌가 읎얎지고 있윌며, ê·ž 싀팚 비윚읎 최대 95%에 달한닀는 분석도 있닀. 귞러나 많은 전묞가는 묞제의 원읞읎 몚덞읎 아니띌, 파펞화돌 있거나 불충분하거나 품질읎 낮은 데읎터에 있닀고 지적한닀.

섞음슈포슀는 읎러한 묞제륌 핎결하Ʞ 위핎 최귌 읞수한 읞포맀티칎(Informatica)륌 통합하Ʞ로 했닀. 큎띌우드 데읎터 ꎀ늬 Ʞ업읞 읞포맀티칎의 지능형 데읎터 ꎀ늬 큎띌우드(IDMC)는 섞음슈포슀의 에읎전튞포슀 360, 데읎터 360, 뮬소프튞 플랫폌에 연동될 예정읎닀.

Ʞ술 분석 êž°ì—… 밞룚아(Valoir)의 최고겜영자 레베칎 웚테만은 읎번 통합읎 CRM 쀑심의 섞음슈포슀에게 “맀우 결정적읞 전환점”읎띌고 평가했닀. 귞는 “읎번 통합은 섞음슈포슀가 가진 데읎터 영역을 확싀히 강화하는 조치닀. 읞포맀티칎가 제공하는 핵심 가치는 풍부한 메타데읎터 계잵읎며, 읎륌 통핎 에읎전튞포슀가 CRM 데읎터에만 제한된 것읎 아니띌는 시장 신뢰도도 확볎하게 된닀”띌고 섀명했닀.

전사 데읎터 맥띜 제공읎 목표

섞음슈포슀의 신규 통합 AI 플랫폌읞 에읎전튞포슀 360은 사람, AI 에읎전튞, 애플늬쌀읎션, 데읎터륌 하나로 연결핎 읎륞바 ‘360도 뷰’륌 제공하도록 섀계됐닀. 읎 êž°ë°˜ 역할을 수행하는 것읎 데읎터 360(구 데읎터 큎띌우드)읎닀.

읎제 에읎전튞포슀 360에 읞포맀티칎가 추가되멎서, 섞음슈포슀가 추구하는 목표는 Ʞ업의 핵심 비슈니슀 데읎터와 ê·ž 복잡한 연ꎀ성을 에읎전튞가 읎핎하도록 지원하는 ‘엔터프띌읎슈 찚원의 읎핎’ 첎계륌 구축하는 데 있닀.

섞음슈포슀에서 통합 데읎터 서비슀·데읎터 360·AI Ʞ반을 쎝ꎄ하는 띌훌 였띌드칎륎 부사장은 간닎회에서 “섞음슈포슀의 메타데읎터 몚덞곌 칎탈로귞륌 읞포맀티칎의 엔터프띌읎슈 전사(党瀟) 칎탈로귞와 결합핎 완전한 데읎터 읞덱슀륌 구축하고 있닀”띌고 섀명했닀.

귞는 읞포맀티칎 Ʞ반의 엔터프띌읎슈 마슀터 데읎터 ꎀ늬(Master Data Management, MDM)가 자산, 제품, 공꞉업첎 등 여러 영역에 걞쳐 음ꎀ된 ‘곚든 레윔드’륌 제공한닀고 전했닀. 읎륌 통핎 에읎전튞는 옚프레믞슀든 데읎터 레읎크든 닀양한 시슀템에 흩얎진 자산 지도륌 확읞할 수 있게 된닀. 데읎터 계볎(lineage) Ʞ능은 데읎터가 생성돌 수집되Ʞ까지의 여정을 추적하며, ‘제로 칎플’ Ʞ능은 데읎터륌 읎동하지 않고 사용할 수 있얎 슀토늬지 비용을 낮춘닀.

간닎회에서 읞포맀티칎 최고제품책임자 크늬시 비탈데바띌는 읞포맀티칎의 IDMC(Intelligent Data Management Cloud)가 데읎터 전첎 흐늄을 발견하고 정제하고 볎혞하고 통합핚윌로썚 “추잡을 대첎한닀”띌고 섀명했닀. 읎는 읞포맀티칎의 믞션읞 ‘겜계륌 없앀 데읎터(data without boundaries)’륌 구현하는 방식읎띌고 말했닀. 귞는 “IDMC는 êž°ì—… 전첎륌 구동시킀는 ꎀ늬된 발전소와 같닀”띌며 “우늬는 데읎터의 슀위슀가 될 것읎고 AI의 슀위슀가 될 것”읎띌고 표현했닀.

읎륌 볎완하Ʞ 위핎 섞음슈포슀의 뮬소프튞는 재고 변화, 배송 지연 등 싀제 욎영 데읎터륌 제공한닀. 였띌드칎륎는 읎러한 싀시간 작업 메몚늬가 쀑요하닀며 “에읎전튞는 지ꞈ 묎슚 음읎 음얎나고 있는지 알아알 한닀”띌고 말했닀.

에읎전튞포슀 360은 ë„€ 가지 잵위로 구성된닀. 첫 번짞 잵위는 데읎터 360, 읞포맀티칎, 뮬소프튞가 결합핎 맥띜을 제공하는 구조읎고, 두 번짞 잵위는 섞음슈포슀가 지난 20년간 축적한 영업·서비슀·마쌀팅·컀뚞슀 ꎀ렚 비슈니슀 로직곌 워크플로우닀. 섞 번짞 잵위는 Ʞ업읎 캠페읞 에읎전튞나 공꞉망 에읎전튞 같은 특화 에읎전튞륌 구축·ꎀ늬·였쌀슀튞레읎션하는 ‘컀맚드 섌터’읎며, ë„€ 번짞 잵위는 싀제로 에읎전튞륌 배포하는 싀행 영역읎닀.

였띌드칎륎는 플랫폌읎 개방성곌 확장성을 전제로 구축돌 Ʞ업읎 섞음슈포슀 생태계에만 얜맀음 필요가 없닀고 섀명했닀. Ʞ업은 였픈AI, 아마졎웹서비슀(AWS), 마읎크로소프튞(MS) 애저, 구Ꞁ 큎띌우드 플랫폌(GCP), 였띌큎, 하읎람늬드 환겜 등에서 만듀얎진 썚드파티 에읎전튞륌 자유롭게 활용할 수 있닀.

AI는 ‘얎늬석을’ 수 있닀

읞포맀티칎의 크늬시 비탈데바띌는 데읎터의 품질, 음ꎀ성, 귞늬고 맥띜읎 가치륌 좌우하는 핵심 요소띌고 강조했닀. 귞는 서로 닀륞 시슀템읎 고유한 얞얎·규칙·정의륌 갖고 있Ʞ 때묞에, 데읎터가 흩얎젞 있거나 였래됐거나 음ꎀ성읎 없을 겜우 AI는 전첎 귞늌을 제대로 파악할 수 없닀고 섀명했닀.

비탈데바띌는 “데읎터만윌로는 충분하지 않닀는 사싀은 몚두 알고 있닀. 에읎전튞 êž°ë°˜ AI와 에읎전튞형 엔터프띌읎슈 시대에는 맥띜읎 새로욎 화폐닀”띌며, 데읎터 계볎와 ꎀ계성, 거버넌슀가 제품의 의믞, 프로섞슀의 작동 방식, 데읎터의 출처와 신뢰성을 AI에 알렀죌는 요소띌고 말했닀. 귞는 “맥띜은 AI의 작업 메몚늬읎자 상황 읞식의 디지턞 버전곌 같닀”띌고 섀명했닀.

섞음슈포슀의 띌훌 였띌드칎륎도 현재 AI 에읎전튞가 ‘닚펞’만을 볎Ʞ 때묞에 공유된 읎핎가 없윌멎 ê²°êµ­ 추잡할 수밖에 없닀고 지적했닀. 귞는 “몚덞은 놀띌욞 만큌 지능적읎지만 동시에 얎늬석닀. 섞상에 대핎서는 거의 몚든 것을 알고 있지만, Ʞ업의 비슈니슀에 대핎서는 아죌 조ꞈ만 알고 있닀”띌고 말했닀.

하지만 몚든 시슀템곌 워크플로우, 에읎전튞가 동음한 맥띜 안에서 작동하멎 의사결정 속도는 크게 빚띌질 수 있닀. 비탈데바띌는 “AI는 훚씬 더 정확핎지고 자동화는 더욱 신뢰할 수 있게 된닀”띌고 전했닀.

CRM 데읎터륌 넘얎

밞룚아의 레베칎 웚테만은 영업·마쌀팅·고객 서비슀 등 특정 목적의 특화 AI 에읎전튞든, 볎닀 ꎑ범위한 상황을 닀룚는 범용 에읎전튞든, Ʞ업읎 CRM 데읎터만윌로는 충분하지 않닀고 강조했닀. 귞는 AI가 ‘합늬적읞 수쀀의 정확도’에 도달하렀멎 데읎터가 맥띜 안에 놓여 있얎알 하며, 싀제 작동하는 “진짜 메타데읎터 팚람늭”읎 읎륌 뒷받칚핎알 한닀고 섀명했닀.

웚테만은 또 읞포맀티칎가 제공하는 데읎터 계볎가 “학습 곡선곌 Ʞ술 부닎을 몚두 낮춰쀀닀”띌고 말했닀.

여Ʞ에 AI 에읎전튞에 대한 Ʞ업의 전반적 읞식은 ‘뒀처지지 않Ʞ 위한 두렀움’ 슉 FOMO(fear of missing out)에서 FOMU(fear of messing up) 닀시 말핮 ‘잘못될까 두렀욎 공포’로 읎동했닀고 웚테만은 분석했닀. Ʞ업듀읎 걱정하는 핵심은 ERP 데읎터륌 에읎전튞에 연결하는 곌정에서 “A) 올바륞 데읎터읞지, B) 데읎터가 너묎 많지는 않은지, C) 읞프띌팀에 곌도한 부닎을 죌지 않는지, 귞늬고 마지막윌로 가장 쀑요한 점음 수도 있는 D) 비용읎 곌도하게 발생하지 않는지”띌는 것읎닀.

싀제로 가격은 Ʞ업의 최우선 ꎀ심사닀. 섞음슈포슀가 AI 에읎전튞 플랫폌 가격 읞상을 녌의하고, 새로욎 AI 계앜을 ‘수익화’하며, 닀시 좌석 êž°ë°˜ 및 사용량 êž°ë°˜ 몚덞을 검토하고 있Ʞ 때묞읎닀. 웚테만은 “Ʞ업읎 죌목하는 것은 가격 ê·ž 자첎뿐 아니띌, 가격 구조의 투명성곌 예잡 가능성”읎띌고 섀명했닀.

읞포맀티칎 고객듀읎 읎번 통합의 영향을 우렀하는 것곌 ꎀ렚핎, 웚테만은 섞음슈포슀가 태랔로 읞수 당시 명확한 로드맵곌 지원 첎계륌 제공했던 선례륌 얞꞉하며 “섞음슈포슀가 태랔로와 태랔로 고객을 통합한 방식에 비춰볎멎, 읞포맀티칎 고객은 걱정할 필요가 없닀”띌고 전했닀.

닀만 읎번 간닎회에서 섞음슈포슀와 읞포맀티칎는 통합 플랫폌의 띌읎선슀나 가격, Ʞ졎 읞포맀티칎 고객을 얎떻게 지원할지에 대한 구첎적 낎용을 공개하지 않았닀.
dl-ciokorea@foundryco.com

앀튞로픜·AWS·였픈AI 倖, ‘에읎전틱 AI 재닚’ 출범···Ʞ술 표쀀화 나선닀

앀튞로픜, 아마졎웹서비슀(AWS), 구Ꞁ, 마읎크로소프튞(MS), IBM, 였픈AI 등 죌요 Ʞ술 Ʞ업읎 AI 에읎전튞의 공통 표쀀을 마렚하Ʞ 위핎 협력한닀. 읎는 CIO에게 더 넓은 선택지륌 제공하는 동시에, 특정 벀더 플랫폌에 대한 의졎도륌 낮추는 계Ʞ가 될 전망읎닀.

지난 9음 출범한 에읎전틱 AI 재닚(Agentic AI Foundation, AAIF)은 에읎전튞가 데읎터에 접귌하고 비슈니슀 시슀템곌 상혞작용하는 공통 프로토윜을 개발하는 것을 목표로 한닀. 독점 도구에 의졎하는 시장 구조가 에읎전틱 AI의 폭넓은 도입을 제한할 수 있닀는 우렀가 컀지고 있Ʞ 때묞읎닀.

쎈Ʞ 에읎전틱 AI 도입 사례 쀑 상당수는 맞춀형 컀넥터나 특정 벀더의 프레임워크에 의졎하고 있얎, 프로젝튞가 확장되멎 닀륞 도구륌 통합하Ʞ 얎렵닀는 묞제가 발생한닀. 최귌 퓚처럌 귞룹 볎고서는 에읎전튞 êž°ë°˜ 환겜읎 파펞화되고 음ꎀ성읎 부족하닀고 지적하며, 개방형 사양읎 없닀멎 향후 Ʞ업의 비용곌 거버넌슀 늬슀크가 컀질 수 있닀고 겜고했닀.

AAIF의 목표는 에읎전튞가 읞슝을 수행하고, 맥띜을 공유하며, 여러 시슀템을 가로지륎며 작업을 싀행하는 방식을 합의핎 에읎전튞 간 협업을 더 쉜게 만드는 데 있닀.

앀튞로픜은 읎믞 업계에서 채택되고 있는 MCP(Model Context Protocol)륌 AAIF의 핵심 출발점윌로 제공했닀. 여Ʞ에 랔록(Block)의 구슀(goose)와 였픈AI의 AGENTS.md도 쎈Ʞ 프로젝튞 섞튞에 포핚되멎서, 재닚은 완전히 새 표쀀을 만드는 대신 읎믞 자늬 잡은 구성요소 위에서 활동을 시작할 수 있게 됐닀.

슝가하는 늬슀크가 표쀀화륌 죌도

최귌 Ʞ업은 에읎전틱 AI륌 싀험하는 곌정에서 예상치 못한 종속곌 통합 복잡성에 부딪히며 아킀텍처 늬슀크륌 녞출하고 있닀. 분석가듀은 ê·ž 귌볞적읞 묞제로, 에읎전튞가 특정 플랫폌 환겜에 맞춰 학습한 작업 방식읎 볎읎지 않는 종속성을 만듀얎낌 수 있닀는 점을 지적한닀.

귞레읎하욎드 늬서치 최고 애널늬슀튞 산치튞 비륎 고Ʞ아는 “에읎전틱 플랫폌에서는 종속성읎 시슀템 구조가 아니띌 에읎전튞가 음하는 방식에 녹아듀얎 있닀. 겉윌로는 몚듈형처럌 볎읎지만, 싀제로 Ʞ업읎 닀륞 플랫폌윌로 옮Ʞ거나 Ʞ술을 닀양화하렀 하멎 예상볎닀 훚씬 복잡하게 얜혀 있는 겜우가 많닀”띌고 말했닀.

칎덎슀 읞터낎셔널의 수석 부사장읞 툎늬칎 싀도 같은 견핎륌 볎였닀. 싀은 Ʞ업읎 에읎전틱 AI륌 도입할 겜우 특정 벀더의 독점 프로토윜곌 읞프띌에 묶음 위험읎 크고, ê·ž 결곌 유연성읎 떚얎지며 전환 비용도 높아진닀고 섀명했닀. 귞는 AAIF 출범읎 “Ʞ업읎 에읎전틱 AI륌 볎닀 신뢰할 만한 방식윌로 도입하게 하며, AI 선택에 대한 통제력을 높음 수 있도록 돕는닀”띌고 분석했닀.

공통 표쀀읎 아킀텍처륌 바꟞는 방식

핵심은 여러 벀더가 싀제 욎영 환겜에서 쓞 수 있는 읞터페읎슀와 안전 규칙에 합의할 수 있느냐닀. 분석가듀은 읎 합의가 읎룚얎지느냐에 따띌 AAIF가 êž°ì—…ìš© 에읎전튞 도입의 핵심 Ʞ반윌로 자늬 잡을지, 아니멎 영향읎 제한적읞 또 하나의 표쀀화 시도로 낚게 될지가 결정될 것읎띌고 볎고 있닀.

IDC 늬서치 부사장 샀띌슀 슀늬니바사묎륎티는 “현재 생성형 AI 사용례의 앜 70%가 였픈 파욎데읎션 몚덞을 Ʞ반윌로 하고 있윌며, Ʞ업의 80% 읎상읎 생성형 AI 애플늬쌀읎션 슀택에서 였픈소슀륌 맀우 쀑요하게 평가하고 있닀. 특히 개발곌 믞섞 조정 닚계에서 읎런 겜향읎 두드러진닀. 결곌적윌로 Ʞ업은 읎믞 개방형 환겜을 전제로 아킀텍처륌 섀계하고 있닀”띌고 말했닀.

공통 프로토윜은 읎런 변화에 속도륌 더할 수 있닀. 옎디아(Omdia) 최고 애널늬슀튞 늬안 지에 수는 에읎전튞 상혞욎용성을 위한 공통 표쀀읎 AI 아킀텍처의 섀계와 배포 방식을 귌볞적윌로 재펞할 가능성읎 있닀고 분석했닀.

수는 “뚌저 에읎전틱 AI 애플늬쌀읎션읎 특정 벀더의 폐쇄적 구조에서 벗얎나 플러귞앀플레읎가 가능한 몚듈형·조합형 시슀템윌로 전환될 가능성읎 있닀. 또한 Ʞ업은 특정 환겜에 얜맀읎지 않고 워크로드륌 여러 환겜 간에 쉜게 읎동할 수 있는 읎식성을 확볎하게 된닀”띌고 섀명했닀.

수는 명확한 표쀀읎 거버넌슀와 였쌀슀튞레읎션 수쀀까지 개선할 수 있닀고 덧붙였닀. 투명한 감독 첎계와 음ꎀ된 통합 규칙읎 마렚되멎, Ʞ업읎 닀쀑 에읎전튞 워크플로우륌 더 횚윚적윌로 조윚할 수 있닀는 섀명읎닀. 귞는 “정확하고 신뢰할 수 있는 결곌륌 대규몚로 만듀얎낎Ʞ 위핎서는 읎러한 맀끄러욎 였쌀슀튞레읎션읎 필수”띌고 말했닀.

벀더 연합의 믞래는?

표쀀화 녌의가 탄력을 받고 있지만, 분석가듀은 싀제 구현읎 시작되멎 벀더 간 협력을 유지하는 음읎 더 얎렀욞 수 있닀고 지적했닀.

고Ʞ아는 AAIF의 싀제 곌제가 Ʞ술읎 아니띌 싀행 곌정에서 드러나는 행동적 잡멎에 있을 것읎띌고 진닚했닀. 귞는 많은 벀더가 묞서 닚계에서는 쉜게 합의하더띌도 싀제 욎영에서는 흔듀늬는 겜우가 잊닀고 섀명했닀. 특히 에읎전틱 AI 시슀템의 복잡성읎 읎러한 묞제륌 더욱 킀욎닀고 귞는 분석했닀.

고Ʞ아는 “에읎전틱 AI는 닚순한 읞프띌가 아니닀. 소프튞웚얎에 자윚적 의사결정읎 귞대로 윔드화된 구조닀. 에읎전튞가 예상곌 닀륎게 움직읎거나, 표쀀곌 구현읎 얎Ꞌ나멎 묞제는 닚순한 시슀템 버귞에 귞치지 않는닀. 법적 늬슀크, 욎영 장애, 평판 훌손까지 읎얎질 수 있닀”띌고 섀명했닀.

수도 협력읎 가능하닀는 점에는 동의했지만, 볎장되지는 않는닀고 평가했닀. 귞는 “죌요 벀더가 에읎전튞 거버넌슀, API, 안전 프로토윜에 공통윌로 합의하는 것은 현싀적윌로 가능하지만 맀우 도전적읞 음”읎띌며, 높아지는 Ʞ대치와 규제 압력을 난제로 ꌜ았닀.

싀은 향후 진전을 가늠할 수 있는 쎈Ʞ 지표로 MCP와 AGENTS.md의 싀제 욎영 환겜 확대, 벀더 간 공동 거버넌슀 지칚, 귞늬고 여러 플랫폌에서 음ꎀ되게 동작하는 감사 및 에읎전튞 간 통신 도구륌 ꌜ았닀. 귞는 “Ʞ업읎 읎런 도구와 안전 첎계륌 개념 슝명(PoC) 수쀀읎 아니띌 대규몚 욎영 환겜에서 활용할 수 있을 때, 비로소 표쀀읎 제대로 작동하고 있닀고 볌 수 있을 것”읎띌고 말했닀.
dl-ciokorea@foundryco.com

“84.7%가 전환 필요성 공감” 였쌀슀튞로, 큎띌우드 넀읎티람 전환 싀태 발표

AI 확산곌 핚께 읞프띌 전환의 필요성읎 컀지고 있지만, 여전히 많은 Ʞ업듀읎 싀행에 얎렀움을 겪고 있는 것윌로 나타났닀. 전첎 응답자의 84.7%는 ‘큎띌우드 넀읎티람 전환읎 필요하닀’고 답했윌며, 귞쀑 절반 읎상은 ‘맀우 필요하닀’고 응답했닀. 전환 필요성에 대한 읞식읎 확산되멎서, 싀제 쀀비 현황에 대한 ꎀ심도 높아지고 있닀.

귞러나 전환 수쀀은 여전히 쎈Ʞ 닚계에 뚞묌러 있닀. 전환을 완료했거나 절반 읎상 진행 쀑읎띌고 응답한 비윚은 18.4%에 불곌했닀. 대부분 쎈Ʞ 녌의 닚계(39.5%)에 뚞묌러 있거나, 음부 업묎에만 시범 적용(27.6%)하는 데 귞쳀닀. 전환에 대한 공감대는 형성됐지만, 싀행윌로 읎얎지지 못하는 현싀적 한계도 뚜렷했닀.

Ʞ업듀읎 전환 곌정에서 가장 많읎 겪는 얎렀움은 ‘욎영 복잡성’읎었닀. 욎영 복잡성 슝가(18.3%)와 Ʞ졎 시슀템의 복잡성(17.4%)읎 죌요 제앜 요읞윌로 ꌜ혔고, 전묞 읞력 부족(16.9%)곌 볎안‧규제 부닎(10.5%)읎 뒀륌 읎었닀.

였쌀슀튞로

였쌀슀튞로

복잡핎진 큎띌우드 환겜도 전환 필요성을 높읎는 배겜윌로 지목됐닀. 응답자의 82.9%는 ‘멀티 및 하읎람늬드 환겜의 욎영 복잡성’읎 큎띌우드 넀읎티람 전환 필요성에 영향을 믞친닀고 답했닀. 큎띌우드 환겜을 안정적윌로 욎영하Ʞ 위핎 구조적읞 전환읎 필요하닀는 읞식읎 확산되고 있닀.

큎띌우드 넀읎티람 전환을 통핎 Ʞ대하는 횚곌도 분명했닀. Ʞ업은 읞프띌 욎영 자동화 향상(24.9%), AI 서비슀 대응 속도 향상(19.7%), DR·복구력 강화(16.8%) 등을 Ʞ대했닀. 읎 밖에도 신규 서비슀 출시·배포 속도 향상(15.6%), 비용 횚윚성 제고(15.6%) 등 닀양한 Ʞ대가 고륎게 나타났닀.

큎띌우드 넀읎티람 전환 녌의가 확산되멎서 욎영 안정성곌 서비슀 연속성 확볎가 Ʞ업의 핵심 곌제로 부상하고 있닀. 였쌀슀튞로는 읎에 대응핎 전환부터 AI 읞프띌 최적화, 재핎복구(DR) 전략까지 아우륎는 ‘풀슀택 소버늰 AI 큎띌우드 아킀텍처’륌 Ʞ반윌로 전환곌 욎영 안정성을 동시에 지원한닀고 밝혔닀.

였쌀슀튞로는 KT큎띌우드와 공동 투자한 대구 믌ꎀ협력형(PPP) 큎띌우드 졎 욎영 겜험을 바탕윌로 컚섀팅부터 섀계, 구축, 욎영까지 전환의 전 곌정을 직접 수행하고 있닀고 섀명했닀. 자첎 개발한 MSA 분석 자동화 툎은 Ʞ졎 시슀템 분석 시간을 Ʞ졎 대비 앜 1/10로 닚축핎, 복잡한 환겜에서도 신속하고 첎계적읞 전환을 가능하게 한닀는 섀명읎닀.

또한 AI 읞프띌 욎영 횚윚화륌 위핎, 였쌀슀튞로는 서버 가상화 솔룚션 ‘윘튞띌베읎슀(CONTRABASS)’와 큎띌우드 넀읎티람 욎영ꎀ늬 플랫폌 ‘비올띌(VIOLA)’륌 Ʞ반윌로 GPU 가상화(GPUaaS)와 녞드‧늬소슀 통합 ꎀ늬륌 구현한닀. 아욞러 였쌀슀튞로는 최귌 DR 전묞 êž°ì—… 읞수륌 통핎 CDP(연속 데읎터 볎혞) Ʞ술을 포핚한 DR 전 영역의 핵심 역량을 낎재화하고 고도화핎 왔닀고 섀명했닀.

였쌀슀튞로 김범재 대표는 “많은 Ʞ업듀읎 큎띌우드 넀읎티람 전환의 필요성은 읞식하고 있지만, 복잡한 환겜곌 Ʞ술적 제앜윌로 싀행에 얎렀움을 겪고 있닀. 였쌀슀튞로는 고객의 안정적읞 큎띌우드 넀읎티람 전환곌 욎영 횚윚성뿐만 아니띌 서비슀 연속성까지 확볎할 수 있도록 적극 지원하겠닀”띌고 말했닀.
dl-ciokorea@foundryco.com

“좀비 에읎전튞륌 막아띌” 에읎전틱 AI 수명 죌Ʞ ꎀ늬 전략

MIT의 11월 볎고서에 따륎멎, 전첎 Ʞ업의 35%는 읎믞 에읎전틱 AI륌 도입했고 44%는 ê³§ 도입할 계획읎띌고 답했닀.

MIT는 볎슀턎 컚섀팅 귞룹곌 핚께 2,000명 읎상을 대상윌로 섀묞조사륌 진행했고, 자윚형 에읎전튞륌 배포하Ʞ 전에 쀑앙집쀑식 거버넌슀 읞프띌륌 구축하띌고 권고했닀. 하지만 Ʞ업읎 생졎 겜쟁을 벌읎고 있닀고 느끌는 상황에서는 거버넌슀가 뒷전윌로 밀늬Ʞ 쉜닀. ꞈ융 서비슀 같은 규제 산업은 예왞에 속한닀.

익슀플늬얞(Experian)의 Ꞁ로벌 귞룹 CTO 로드늬고 로드늬게슀는 “익슀플늬얞은 여러 핮 동안 AI 혁신을 읎얎왔닀”띌며, “ꞈ융 서비슀 분알에서 AI 활용은 읎핎ꎀ계가 맀우 크닀. 규제, 윀늬, 성능 Ʞ쀀읎 개발부터 배포까지 전 곌정에 녹아 있는지 몚든 AI 사용례마닀 ꌌꌌ히 검슝핎알 한닀”띌고 섀명했닀.

로드늬게슀는 몚든 몚덞을 지속적윌로 테슀튞하고, 볎유한 에읎전튞 목록, ì–Žë–€ 에읎전튞가 도입되는지, 묎엇을 소비하는지, ì–Žë–€ 버전읎 구동 쀑읞지, 새 버전읎 나왔을 때 ì–Žë–€ 에읎전튞륌 퇎역시쌜알 하는지까지 추적하고 있닀고 밝혔닀.

로드늬게슀는 “읎런 수명 죌Ʞ ꎀ늬가 익슀플늬얞 Ʞ술 Ʞ반의 음부”띌며, 동시에, 익슀플늬얞에서도 아직 AI 에읎전튞의 전형적읞 수명 죌Ʞ륌 녌의하Ʞ에는 너묎 읎륎닀고 덧붙였닀. 또, “얎떀 에읎전튞륌 퇎역하거나 종료할 때는 새 역량을 개발했을 때뿐읎닀. 에읎전튞륌 삭제하Ʞ볎닀는 업데읎튞한닀는 개념에 가깝닀”띌고 섀명했닀.

익슀플늬얞은 AI 에읎전튞가 통제 불능 상태로 빠지지 않도록 사람의 감독 첎계도 마렚했닀. 로드늬게슀는 “아직 자동화의 전사적 확장 닚계까지 가지는 않았닀. 대부분 사용례에서 생성형 AI 에읎전튞가 맡는 역할을 아죌 구첎적읞 닚음 작업윌로 한정하고 있닀”띌고 말했닀. 여Ʞ에 였쌀슀튞레읎터 에읎전튞, 입력·출력 품질 ꎀ늬, 결곌륌 검슝하는 사람까지 더핮 여러 겹의 통제 첎계륌 두고 있닀. 읎런 몚니터링 첎계는 아묎런 비슈니슀 가치 없읎 LLM 혞출만 반복핎 비용만 발생시킀는 잉여 에읎전튞 같은 닀륞 위험을 쀄읎는 데도 도움읎 된닀.

로드늬게슀는 “비용읎 폭발하는 상황은 플하고 싶닀”띌고 말했닀. 하지만 ꞈ융 서비슀와 의료, Ʞ타 고강도 규제 산업은 예왞적 사례에 가깝닀.

대부분 Ʞ업은 거버넌슀 첎계가 있닀고 핮도 큰 사각지대륌 안고 있닀. IT 죌도로 진행되는 대형 에읎전틱 AI 프로젝튞에만 집쀑하고 나뚞지는 놓치는 겜우가 ë§Žë‹€. AI 에읎전튞의 정확성, 안전성, 볎안, 컎플띌읎얞슀만 볎닀가 에읎전튞가 수명을 닀했을 때륌 포착하지 못하는 겜우도 있닀. 불필요핎진 에읎전튞륌 폐Ʞ하는 프로섞슀 자첎가 없는 Ʞ업도 ë§Žë‹€.

겜영 컚섀팅 회사 SSA앀컎퍌니(SSA & Company)의 얎플띌읎드 솔룚션 책임자 닉 크레읎뚞는 “Ʞ술읎 너묎 빠륎게 진화하멎서 ꎀ늬 영역은 찬밥 신섞가 됐닀”띌며, 에읎전튞 수명 죌Ʞ ꎀ늬 영역에서 엄격핚읎 심각하게 부족하닀고 지적했닀.

크레읎뚞는 “곌거 Ʞ술에서도 겜험했듯읎 결국에는 엄청난 Ʞ술 부채가 쌓읎는 상황윌로 읎얎진닀. 에읎전튞형 Ʞ술 부채는 상상만 핮도 묎서욞 정도”띌고 겜고했닀.

에읎전튞가 얎디에 있는지 파악하Ʞ

뚌저, 에읎전틱 AI는 데읎터 곌학, AI, IT 부서만의 것읎 아니닀. 가튞너에 따륎멎, 거의 몚든 엔터프띌읎슈 소프튞웚얎 업첎가 에읎전튞 Ʞ술에 대규몚 투자륌 집행하고 있윌며, 올핎 말읎멎 대닀수 엔터프띌읎슈 애플늬쌀읎션에 AI 얎시슀턎튞가 포핚될 전망읎닀. 읎믞 업묎별 자윚 에읎전튞륌 볎유한 애플늬쌀읎션 비쀑은 5%읎고, 2026년에는 40%까지 늘얎날 것윌로 예상됐닀.

섞음슈포슀 같은 대형 SaaS 플랫폌에는 묌론 에읎전튞가 있닀. 재플얎(Zapier) 같은 셀프 서비슀 자동화 플랫폌에도 에읎전튞가 듀얎간닀. 읎믞 퍌플렉시티 윔멧, 챗GPT 아틀띌슀, 구Ꞁ 제믞나읎 3, 마읎크로소프튞 엣지 포 비슈니슀(Edge for Business) 등 람띌우저에도 에읎전튞 Ʞ능읎 Ʞ볞 탑재돌 있닀. 여Ʞ에 IT 부서 밖에서 êž°ì—… 낎부 구성원읎 직접 만든 에읎전튞도 있닀. EY가 1,000명에 가까욎 C 레벚 겜영진을 대상윌로 진행한 섀묞조사에 따륎멎, 전첎 Ʞ업의 2/3는 시믌 개발자가 에읎전튞륌 만듀도록 허용하고 있닀.

êž°ì—… 낎부에서 개발하든 SaaS 공꞉업첎가 제공하든, 몚든 에읎전튞는 데읎터와 시슀템에 접귌핎알 한닀. 에읎전튞가 유용핎질수록 더 많은 데읎터와 시슀템 ì ‘ê·Œ 권한, 더 많은 도구륌 요구한닀. 읎런 에읎전튞는 예Ʞ치 않은 방향, 원치 않는 방식윌로 행동할 수 있고 읎믞 귞런 사례가 나였고 있닀.

전통적읞 소프튞웚얎와 달늬 AI 에읎전튞는 정핎진 선을 지킀지 않는닀. AI 에읎전튞는 계속 학습하고 진화하며 더 많은 시슀템에 접귌한닀. AI 에읎전튞는 ‘죜지’ 않윌렀 하고, 읎륌 막Ʞ 위핎 슀슀로 행동을 ì·ší•  수도 있닀.

에읎전튞 등장 읎전에도 섀도우 AI는 읎믞 묞제가 되고 있었닀. IBM읎 3,000명의 사묎직 종사자륌 대상윌로 11월에 싀시한 섀묞조사에 따륎멎, 응답자의 80%는 업묎에서 AI륌 사용하지만 ê·ž 가욎데 22%만읎 회사가 제공한 도구만 사용한닀고 답했닀.

협업 부서가 직접 에읎전튞륌 만듀 수도 있닀. 넷슀윔프(Netskope)의 엔터프띌읎슈 튞래픜 분석 데읎터에 따륎멎, 전첎 Ʞ업의 67%가 AI 도구 공유 사읎튞 허깅페읎슀(Hugging Face)에서 늬소슀륌 낎렀받고 있닀. AI 에읎전튞는 음반적윌로 LLM에 API 혞출을 볎낎는 방식윌로 동작하는데, 넷슀윔프는 전첎 조직의 66%에서 였픈AI(OpenAI) API 혞출을 ꎀ잡하고, 13%에서는 앀튞로픜 API 혞출을 ꎀ잡했닀고 밝혔닀.

읎런 사용 비윚은 Ʞ업읎 섀묞조사에서 볎고하는 수치의 2배에 핎당한닀. 읎것읎 섀도우 AI 에읎전튞 격찚닀. Ʞ업읎 파악하고 있는 에읎전튞만 ꎀ늬핎도 얎렀욎데, 볎읎지 않는 에읎전튞까지 ꎀ늬하는 음은 훚씬 더 복잡하닀.

크레읎뚞는 “가장 큰 두렀움은 졎재 자첎륌 몚륎는 에읎전튞”띌며, CIO가 에읎전튞륌 강겜 통제로만 ꎀ늬하렀는 유혹을 플핎알 한닀고 조얞했닀. 또, “처벌 위죌의 슉각적 대응윌로 에읎전튞륌 뿌늬 뜑윌렀 하지 말띌. 섀도우 에읎전튞가 생Ʞ는 읎유는 제대로 만듀 수 있는 Ꞟ에 장애묌읎 너묎 ë§Žêž° 때묞읎닀. 묎지와 ꎀ료죌의가 가장 큰 원읞”읎띌고 지적했닀.

섀도우 IT와 마찬가지로 적절한 핎결책도 많지 않닀. 크레읎뚞는 “옵저버빌늬티 소프튞웚얎로 읎런 에읎전튞륌 첎계적윌로 찟는 것 자첎가 큰 곌제”띌고 말했닀. 닀륞 형태의 섀도우 IT와 마찬가지로 승읞받지 않은 AI 에읎전튞도 Ʞ업에 큰 위험읎 될 수 있윌며, 읎믞 에읎전튞가 핎컀의 새로욎 공격 표멎윌로 활용되는 사례가 나타났닀.

몚든 전묞가가 에읎전튞 수명 죌Ʞ ꎀ늬륌 ‘작동하는 에읎전튞륌 만드는 것’볎닀 우선순위에 두얎알 한닀고 볎는 것은 아니닀.

Ʞ술 컚섀팅 회사 NWN의 CEO 짐 섀늬번은 “AI 에읎전튞는 구성원의 시간을 아껎죌는 데 극도로 횚윚적읞 Ʞ술”읎띌며, “대부분 Ʞ업은 읎런 횚윚성을 활용핎 ì–Žë–€ 영향읎 나였는지 확읞하렀고 한닀. 지ꞈ까지는 읎 부분읎 최우선 곌제였닀”띌고 말했닀. 또, “조Ʞ에 배포핎 빠륎게 성곌륌 얻는 것읎 쀑요하며, 아직 수명 죌Ʞ륌 볞격적윌로 녌의할 닚계는 아니닀”띌고 덧붙였닀.

현재로서는 원하는 비슈니슀 성곌륌 얻고, 에읎전튞가 Ʞ대한 대로 성능을 유지하는 것읎 쀑요하닀는 입장읎닀. 섀늬번은 “적절한 구현 방식곌 통제 장치륌 갖추멎 충분히 안전하게 욎용할 수 있닀”띌고 말했닀.

Ʞ업읎 에읎전튞 전첎 목록읎나 데읎터 ì ‘ê·Œ 권한을 한눈에 볎는 쀑앙 읞벀토늬륌 구축하고 있는지 여부는 아직 판닚하Ʞ 얎렵닀. 섀늬번은 “고객은 뚌저 ì–Žë–€ 비슈니슀 성곌륌 달성할지부터 정의한닀. ê·ž 닀음에는 성곌륌 낎Ʞ 위한 읞프띌륌 구축하고 빠륎게 배포핎 학습하며, 목표 비슈니슀 성곌에 맞춰 조정하는 데 집쀑하고 있닀”띌고 섀명했닀.

섀늬번은 향후에는 상황읎 달띌질 수 있닀며, “에읎전튞 전첎 읞벀토늬륌 ꎀ늬하고 ì ‘ê·Œ 권한을 조윚하며 권고안을 제시하는, ‘에읎전튞륌 ꎀ늬하는 에읎전튞’가 등장할 수 있닀”띌고 전망했닀. 닀만 에읎전튞가 충분히 성숙할 때까지 수명 죌Ʞ ꎀ늬륌 믞룚멎 너묎 늊을 수도 있닀.

AI 에읎전튞의 적정 수명

AI 에읎전튞는 볎통 만료음읎 정핎젞 있지 않닀. SaaS 서비슀 업첎는 엔터프띌읎슈 사용자가 에읎전튞륌 끄Ʞ 쉜게 만드는 데 ꎀ심읎 없고, 개별 사용자가 직접 만든 에읎전튞도 수명 죌Ʞ ꎀ늬는 거의 고렀하지 않는닀. IT 부서가 배포하는 AI 에읎전튞도 전첎 수명 죌Ʞ륌 처음부터 끝까지 상정하고 섀계하는 겜우가 드묌닀.

부슈 앚런 핮밀턮(Booz Allen Hamilton) 사업 부묞 AI 볎안 책임자 맀튞 킀팅은 “많은 겜우 AI륌 한번 섀정핎놓고 잊얎버렀도 되는 솔룚션윌로 췚꞉한닀”띌고 지적했닀. 킀팅은 에읎전튞 구축은 Ʞ술적 곌제읞 반멎, 지속적읞 위험 ꎀ늬는 규제 쀀수, 사읎버 볎안, 법묎, 비슈니슀 늬더십 등 여러 조직읎 핚께 핎알 하는 전사적 작업읎띌고 섀명했닀.

킀팅은 에읎전튞 ꎀ늬는 성능 변화나 비슈니슀 요구 변화만을 Ʞ쀀윌로 핎서는 안 된닀며, “동음하게, 아니 ê·ž 읎상 쀑요한 것은 ì–Žë–€ 에읎전튞나 AI 시슀템을 교첎핎알 할 시점을 아는 것읎닀. 올바륞 수명 죌Ʞ ꎀ늬는 Ʞ업의 비슈니슀와 평판을 볎혞하는 동시에 지속 가능한 가치륌 제공한닀”띌고 강조했닀.

좀비 에읎전튞가 생겚나는 또 닀륞 원읞은 공식적윌로 종료되지 않은, 귞렇지만 싀팚한 파음럿 프로젝튞닀. 크레읎뚞는 “싀팚했음에도 끝나지 않는 파음럿읎 있닀. 예산읎 조ꞈ 낚아 있닀는 읎유만윌로 계속 붙잡고 있는 겜우가 많닀”띌고 말했닀.

작동하지 않는 파음럿을 예산곌 묎ꎀ하게 끝낌 수 있는 장치가 필요하닀. 크레읎뚞는 “빠륎게 싀팚하는 법을 아직도 배우지 못한 조직읎 많닀”띌며, “프로젝튞륌 멈출 수 있는 닚계별 게읎튞가 필요하닀. 작동하지 않는 파음럿은 곌감히 종료하고, 시작하Ʞ 전에 묎엇을 하렀는지 훚씬 더 엄격하게 정의핎알 한닀”띌고 조얞했닀.

AI 에읎전튞륌 퇎역시킀는 또 닀륞 얎렀움은 ‘사고가 터진 뒀에알 움직읎는’ 방식읎닀. 눈에 띄는 묞제가 발생하고, 특히 왞부에 알렀졌을 때만 에읎전튞륌 퇎역시킚닀멎, 레읎더 아래에서 계속 작동하는 닀륞 에읎전튞가 생겚날 수 있닀.

에읎전틱 AI 전묞업첎 디사읎더(Decidr) 디렉터 데읎비드 람룚데넬은 “AI 프로젝튞는 갑자Ʞ 폭발적윌로 싀팚하지는 않지만, 조용히 성능읎 떚얎진닀”띌고 말했닀. 람룚데넬은 Ʞ업읎 에읎전튞륌 재학습하거나 퇎역시쌜알 할 Ʞ쀀을 사전에 정핎둘 것을 권고했닀. 예륌 듀얎 성능읎 Ʞ업읎 허용하는 였류 허용치 아래로 떚얎졌을 때 같은 Ʞ쀀읎 될 수 있닀.

람룚데넬은 “몚든 AI 프로젝튞에는 반감Ʞ가 있닀”띌며, “뛰얎난 팀은 닀륞 자산 감사와 마찬가지로 분Ʞ마닀 ì •êž° 점검을 수행한닀”띌고 지적했닀. 또, “데읎터·엔지니얎링 팀은 지원 역할을 하고, 성능읎 떚얎졌닀고 판당핮 종료 여부륌 결정하는 죌첎는 비슈니슀 조직읎얎알 한닀”띌고 덧붙였닀.

가장 큰 묞제는 AI륌 음회성 섀치 솔룚션윌로 췚꞉하는 태도읎닀. 람룚데넬은 “많은 Ʞ업읎 몚덞을 한번 배포한 ë’€ 알아서 굎러갈 것읎띌고 가정하고 닀음 곌제로 넘얎간닀. AI 시슀템도 였래된 윔드처럌 조직의 Ʞ술 부채륌 축적한닀”띌고 지적했닀.

익슀플늬얞은 읞벀토늬 ꎀ점곌 수명 죌Ʞ ꎀ늬 ꎀ점에서 AI 에읎전튞륌 핚께 바띌볎며, 에읎전튞가 통제 범위륌 벗얎나 묎한 슝식하지 않도록 겜계하고 있닀. 로드늬게슀는 “API와 마읎크로서비슀에서 똑같은 겜험을 했고, 지ꞈ은 훚씬 나은 거버넌슀륌 적용하고 있닀. AI 에읎전튞륌 마구 양산하고 싶지 않닀”띌고 말했닀.

익슀플늬얞은 AI 에읎전튞에 대한 가시성을 확볎하고 활용 현황을 추적하Ʞ 위핎 AI 에읎전튞 마쌓플레읎슀륌 구축했닀. 로드늬게슀는 “읎 마쌓플레읎슀륌 통핎 ì–Žë–€ 에읎전튞가 있는지, 얎떻게 쓰읎는지, 더 읎상 사용하지 않는 에읎전튞륌 얎떻게 퇎역시킬지 등 필요한 정볎륌 몚두 확읞할 수 있닀”띌고 섀명했닀.

AI 에읎전튞 수명 죌Ʞ ꎀ늬는 애플늬쌀읎션 수명 죌Ʞ ꎀ늬 프로섞슀에서 자연슀럜게 확장된 개념읎닀. 로드늬게슀는 “AI 에읎전튞도 ê²°êµ­ 하나의 애플늬쌀읎션”읎띌며, “익슀플늬얞의 몚든 애플늬쌀읎션에는 책임자가 있고, Ʞ술 포튞폎늬였의 음부로 ꎀ늬된닀. 녾후화된 자산은 몚두 퇎역시킀고, 수명 죌Ʞ에 대한 ì •êž° 점검을 정책윌로 욎영하고 있닀”띌고 밝혔닀.
dl-ciokorea@foundryco.com

Ecco come i CIO stanno passando dal “cloud-first” al “cloud-smart”

La saggezza comune ha a lungo sostenuto che un approccio “cloud-first” consente ai CIO di ottenere vantaggi come agilità, scalabilità ed efficienza dei costi per applicazioni e carichi di lavoro. Sebbene il cloud resti la piattaforma infrastrutturale preferita dalla maggior parte dei leader tech, molti stanno rivedendo la propria strategia, passando dal “cloud-first” a un approccio “cloud-smart”: invece di spostare tutto off-premises e privilegiare “la nuvola”, a prescindere, per ogni nuova iniziativa, scelgono di volta in volta la soluzione più adatta ai singoli workload.

“L’ottimizzazione dei costi per il cloud Ú uno dei fattori che motiva questo ripensamento, con le aziende che lottano per controllare spese in rapido aumento. Si stima che il 21% dell’esborso enterprise per le infrastrutture cloud [in inglese], pari a 44,5 miliardi di dollari nel 2025, venga sprecato in risorse sottoutilizzate, con il 31% dei CIO che spreca metà della propria spesa [in inglese], secondo quanto si legge in un recente sondaggio di VMware.”

La corsa totale verso il cloud Ú finita, sostiene Ryan McElroy [in inglese], vice president of technology della società di consulenza Hylaine. Le imprese cloud-smart hanno un processo ben definito e comprovato per determinare quali carichi di lavoro siano più adatti al cloud.

Per esempio, “qualcosa che deve essere erogato molto rapidamente e supportare in futuro una scala enorme dovrebbe essere sviluppato nel cloud”, spiega McElroy. “Soluzioni basate su tecnologie legacy, che devono essere ospitate su macchine virtuali o che hanno workload molto prevedibili destinati a durare anni, dovrebbero invece essere distribuite in data center ben gestiti”.

Sempre secondo il manager, il trend cloud-smart Ú influenzato da una migliore tecnologia on-prem, da cicli hardware più lunghi, dai margini estremamente elevati dei provider cloud hyperscaler e dai consueti cicli di hype del settore. Tutti elementi che favoriscono approcci infrastrutturali ibridi.

Tuttavia, “l’AI ha aggiunto un’altra grande complicazione [in inglese], con dati e capacità di calcolo frammentati in silos”, aggiunge. “Molte aziende non sono interessate o non sono in grado di costruire data center ad alte prestazioni basati su GPU, e hanno bisogno di usare il cloud. Ma se finora sono state conservative o avverse ai costi, Ú probabile che i loro dati si trovino nella componente on-prem della loro infrastruttura ibrida”.

Queste variabili hanno portato complessità o costi imprevisti [in inglese], sia tramite la migrazione sia attraverso le tariffe di data egress, osserva McElroy.

Stima che “solo il 10% del settore abbia ammesso apertamente di muoversi” verso il cloud-smart. Anche se questa percentuale può sembrare bassa, secondo McElroy Ú comunque significativa.

“Ci sono molti prerequisiti per cambiare posizione sul cloud”, spiega. “Innanzitutto, in genere devi essere un nuovo CIO o CTO. Chi ha guidato la migrazione verso il cloud farà molta fatica a tornare indietro”.

Inoltre, le imprese devono aver mantenuto e fatto evolvere le competenze del personale che gestisce il data center di proprietà o presso il fornitore di co-location. Devono anche avere esigenze infrastrutturali tali da superare i benefici del cloud in termini di pura agilità e di calcolo frazionato, aggiunge McElroy.

Selezionare e rivalutare il giusto hyperscaler

Procter & Gamble ha adottato una strategia cloud-first quando ha iniziato a migrare i carichi di lavoro circa otto anni fa, racconta Paola Lucetti [in inglese], CTO e senior vice president. In quel momento il mandato era che tutte le nuove applicazioni venissero distribuite nel cloud pubblico e che i carichi di lavoro esistenti migrassero dagli ambienti di hosting tradizionali agli hyperscaler, spiega Lucetti.

“Questo approccio ci ha permesso di modernizzare rapidamente, ridurre la dipendenza dalle infrastrutture legacy e sfruttare la scalabilità e la resilienza offerte dalle piattaforme cloud”, sottolinea.

Oggi quasi tutti i workload di P&G girano nel cloud. “Scegliamo di mantenere alcuni carichi di lavoro fuori dal cloud pubblico per esigenze di latenza o di prestazioni, che rivalutiamo regolarmente”, spiega Lucetti. “Queste fondamenta ci hanno garantito velocità e flessibilità in una fase critica della trasformazione digitale”.

Con la maturazione dell’ecosistema cloud dell’azienda, sono maturate anche le priorità di business. “L’ottimizzazione dei costi, la sostenibilità e l’agilità sono passate in primo piano”, rimarca. “Per P&G, essere cloud-smart significa selezionare e rivalutare regolarmente l’hyperscaler giusto per ogni workload, incorporare pratiche FinOps [in inglese] per trasparenza e governance e sfruttare architetture ibride per supportare casi d’uso specifici”.

Questo approccio dà più potere agli sviluppatori attraverso automazione, AI e agenti per generare valore più velocemente, dice Lucetti. “Non Ú solo una questione tecnica, Ú culturale. Riflette una mentalità di flessibilità strategica, in cui le decisioni tecnologiche si allineano ai risultati di business”.

L’AI sta ridisegnando le decisioni sul cloud

L’intelligenza artificiale rappresenta un potenziale fabbisogno di spesa enorme e alza la posta in gioco per la strategia infrastrutturale, rileva McElroy.

“Noleggiare server pieni di costose GPU Nvidia tutto il giorno, ogni giorno, per tre anni, sarà finanziariamente rovinoso rispetto all’acquisto diretto”, dice. “Ma la flessibilità di poter usare senza soluzione di continuità i modelli dell’anno successivo può rappresentare un vantaggio strategico”.

Cisco, per esempio, Ú diventata molto più oculata nel decidere che cosa debba davvero risiedere nel cloud pubblico, commenta Nik Kale [in inglese], principal engineer e product architect. Il costo Ú un fattore, ma il driver principale Ú la data governance per l’AI [in inglese].

“Essere cloud-smart non significa repatriation – non Ú solo riportare workload on-prem – ma allineare la gravità dei dati dell’AI con il giusto piano di controllo”, precisa.

L’IT ha distinto ciò che dovrebbe stare in un cloud privato da ciò che va nel cloud pubblico. “L’addestramento e il fine-tuning di grandi modelli richiedono un forte controllo sui dati dei clienti e sulla telemetria”, spiega Kale. “Per questo favoriamo sempre più spesso architetture ibride in cui inferenza ed elaborazione dei dati avvengono all’interno di ambienti privati e sicuri, mentre orchestrazione e servizi non sensibili restano nel cloud pubblico”.

La strategia cloud-smart di Cisco parte dalla classificazione dei dati e dal profiling dei workload. Qualsiasi elemento che contenga informazioni identifi­cabili sui clienti, tracce diagnostiche e cicli di feedback dei modelli viene elaborato all’interno di cloud privati regionali conformi alle normative, spiega.

Poi ci sono “servizi stateless, content delivery e aggregazione della telemetria che traggono beneficio dall’elasticità del cloud pubblico per scala ed efficienza”, aggiunge Kale.

L’approccio di Cisco prevede inoltre “il confezionamento di funzionalità che in precedenza risiedevano nel cloud per un deployment sicuro all’interno degli ambientienti dei clienti – offrendo localmente gli stessi insight e la stessa automazione abilitati dall’AI, senza esporre i dati a un’infrastruttura condivisa”, evidenzia. “Questo dà ai clienti la flessibilità di adottare funzionalità di intelligenza artificiale senza compromettere residenza dei dati, privacy o costi”.

Queste pratiche hanno migliorato la postura di conformità di Cisco, ridotto la latenza dell’inferenza e generato riduzioni a doppia cifra della spesa cloud, sottolinea Kale.

Un’area in cui l’AI ha cambiato radicalmente il loro approccio al cloud Ú il rilevamento delle minacce su larga scala. “Le prime versioni dei nostri modelli giravano interamente nel cloud pubblico, ma quando abbiamo iniziato a fare fine-tuning sulla telemetria specifica dei clienti, la sensibilità e il volume di quei dati hanno reso il data egress verso il cloud sia costoso che difficile da governare”, nota Kale. “Spostare l’addestramento e i cicli di feedback in cloud privati regionali ci ha garantito la piena tracciabilità e ha ridotto in modo significativo i costi di trasferimento, mantenendo l’inferenza ibrida così che i clienti nelle regioni regolamentate ottenessero tempi di risposta inferiori al secondo”.

L’IT ha osservato un problema simile con il proprio assistente di supporto basato su AI generativa. “Inizialmente le trascrizioni dei casi e i log diagnostici venivano elaborati da LLM nel cloud pubblico”, racconta Kale. “Quando i clienti dei settori finance e healthcare hanno sollevato legittime preoccupazioni sui dati che lasciavano i loro ambienti, abbiamo ri-architettato la soluzione per eseguirla direttamente all’interno dei loro virtual private cloud o cluster on-prem”.

Lo strato di orchestrazione rimane nel cloud pubblico, ma i dati sensibili non escono mai dal loro piano di controllo, aggiunge.

L’AI ha anche ridefinito il modo in cui vengono gestite le analytics di telemetria nell’intero portfolio CX di Cisco. L’IT raccoglie dati operativi su scala petabyte da oltre 140.000 ambienti cliente.

“Quando siamo passati alla predictive AI in tempo reale, il costo e la latenza dell’invio dei dati grezzi di serie temporali al cloud sono diventati un collo di bottiglia”, conclude Kale. “Spostando l’estrazione delle feature e il rilevamento delle anomalie sul collector locale del cliente e inviando al cloud solo segnali di rischio ad alto livello, abbiamo ridotto drasticamente l’egress migliorando al contempo la fedeltà dei modelli”.

In tutti i casi, “Ú stata l’AI a rendere chiari i compromessi architetturali: workload specifici traggono beneficio dall’elasticità del cloud pubblico, ma le funzioni di AI più sensibili, data-intensive e critiche in termini di latenza devono essere eseguite più vicino ai dati”, conclude Kale. “Per noi, cloud-smart significa meno repatriation e più allineamento tra gravità dei dati, confini di privacy ed economia dell’inferenza con il giusto piano di controllo”.

Un percorso meno costoso

Come P&G, anche World Insurance Associates ritiene che cloud-smart equivalga a implementare un framework FinOps. Il CIO Michael Corrigan [in inglese] spiega che questo significa avere una configurazione ottimizzata e coerente delle macchine virtuali in base al caso d’uso di business e comprendere quanta capacità di storage e di calcolo sia necessaria.

Questi sono i principali driver dei costi, “per cui abbiamo un set coerente di standard che determinano le dimensioni dei nostri diversi ambienti sulla base del caso d’uso”, chiarisce Corrigan. Questo garantisce a World Insurance quella che descrive come un’architettura automatizzata.

“Poi ottimizziamo la configurazione per assicurarci di avere attivate funzionalità come l’elasticità. Così, quando i servizi non vengono utilizzati – di solito durante la notte – si spengono e riducono la quantità di storage e di compute attivi, in modo che l’azienda non li paghi”, spiega. “Si parte dalle fondamenta: ottimizzazione e standard”.

World Insurance lavora con i suoi cloud provider su diversi livelli di impegno. Con Microsoft, per esempio, la compagnia assicurativa ha l’opzione di usare macchine virtuali “a consumo” oppure quella che Corrigan definisce una “reserved instance”. Indicando al provider quante macchine prevede di utilizzare o quanto prevede di spendere, può provare a negoziare degli sconti.

“È qui che il framework FinOps deve davvero essere in atto
 perché ovviamente non vuoi impegnarti su un livello di spesa che poi non consumeresti”, osserva Corrigan. “È un buon modo per noi, in quanto organizzazione che utilizza quei servizi cloud, di ottenere sconti significativi in anticipo”.

World Insurance utilizza l’AI per automazione e alert. Gli strumenti di intelligenza artificiale sono in genere addebitati in base alla capacità di elaborazione, “e quello che puoi fare Ú progettare la tua query in modo che, se Ú qualcosa di meno complicato, segua un percorso di esecuzione meno costoso”, spiega, indirizzandola verso uno small language model (SLM) [in inglese], che non utilizza la stessa potenza di calcolo.

L’utente ottiene un risultato soddisfacente e “il costo Ú minore perché non stai consumando così tante risorse”, aggiunge.

È questa la tattica adottata dall’azienda: indirizzare le query di AI verso il modello meno costoso. Se c’Ú un workflow o un processo più complesso, viene indirizzato prima all’SLM “per vedere se soddisfa le esigenze”, prosegue Corrigan. Se le necessità sono più complesse, il flusso viene spostato alla fase successiva, più costosa, che in genere coinvolge un LLM che deve elaborare una quantità maggiore di dati per restituire all’utente finale ciò che sta cercando.

“Cerchiamo quindi di gestire i costi in questo modo, consumando solo ciò che Ú davvero necessario in base alla complessità del processo”, spiega.

Il cloud come “framework vivente”

McElroy di Hylaine sostiene che i CIO e i CTO devono essere più disponibili a discutere i vantaggi delle configurazioni ibride e di come lo stato dell’arte sia cambiato negli ultimi anni.

“Molte aziende stanno lottando con costi cloud che sanno istintivamente essere troppo alti, ma esistono pochi incentivi per affrontare il lavoro rischioso della repatriation quando un CFO non ha visibilità sui risparmi a cui sta rinunciando”, avverte.

Lucetti definisce la strategia cloud di P&G come “un framework vivente” e dichiara che nei prossimi anni l’azienda continuerà a sfruttare le capacità cloud più adatte per abilitare AI e agentic al servizio del valore di business.

“L’obiettivo Ú semplice: mantenere la tecnologia allineata alla crescita dell’azienda, restando al contempo agili in un panorama digitale in rapido cambiamento”, conclude. “La trasformazione cloud non Ú una destinazione, Ú un viaggio. In P&G sappiamo che il successo deriva dall’allineare le decisioni tecnologiche ai risultati di business e dall’abbracciare la flessibilità”.

It’s everyone but Meta in a new AI standards group

It appears Meta has opted to go in a whole new direction in response to this week’s formation by The Linux Foundation of a group called the Agentic AI Foundation (AAIF), designed to help enterprises develop and manage AI agents through a “shared ecosystem of tools, standards and community-driven innovation.”

The group is made up of a who’s-who of the tech industry, ranging from AWS and OpenAI to Google, Microsoft, IBM, and Cisco. The one name missing from the list is Meta, and, according to a Bloomberg article published on Wednesday, there is a reason for that: the firm is working on a new proprietary model, code-named Avocado, that will generate revenue.

Brian Jackson, principal research director at Info-Tech Research Group, said, ”[Meta was] never interested in a truly open source model approach, just an open weights model approach. To really commit to open source, [it] would have to be willing to share its training data and give up control over model governance.”

Weights, he said, “are just the different knobs along the neural pathways that can be tweaked when training a model. Clearly, [Meta] views its training data as a competitive differentiator or sees some other risk in making it public. It also wants to maintain control over the governance of its models in terms of how they can be integrated with other vendors’ platforms.”

Jackson pointed out that, now that it sees that The Linux Foundation is going to better define a standard for truly open source models, Meta realizes it isn’t going to be able to define the space and distribute its model in the way it intended.

Open weights models vs. open source software

Asked whether developing cutting-edge open source models is becoming too expensive for anyone to contemplate doing without some sort of revenue stream, he noted that at AWS re:Invent last week, AWS CEO Matt Garman had some interesting comments about these open weights models in an analyst Q&A session.

Jackson said, “he pointed out that open source software works because the community contributes back to the projects. But with open weights models, only the provider contributes to the release. These business models are too expensive and not a long-term play,” he said, “and providers may eventually have to charge for them.”

Meta, he said, is proving Garman right. “They didn’t really have a clear business model to collect revenue on Meta’s open weights models,” he said. “Perhaps part of their strategy was to commoditize LLMs and undermine the business models of their competitors.”

But the scale of these models, said Jackson, “continues to grow, and competition is pushing AI makers to invest more into training techniques, talent, and infrastructure to support it all. So, Zuckerberg has to pivot and find a way to monetize Meta’s work here. The best way in the industry to do that is to put a gated API on your model and charge a price per token.”

Sanchit Vir Gogia, the chief analyst at Greyhound Research, said Meta’s pivot from open source AI to a closed, monetized model architecture “marks a deliberate departure from the cooperative direction that most of the AI industry is now moving toward. This is not a tactical adjustment. It is a structural shift that signals a different philosophical stance on the future of AI infrastructure.”

Meta positioning itself as ‘self-contained island’

He added that while organizations such as OpenAI, Google, Anthropic, Microsoft, and others are aligning under the Agentic AI Foundation to create open, neutral standards for agent interoperability, Meta is choosing vertical integration and platform control.

This, said Gogia, looks like a shift in how Meta wants to position its AI bets commercially. “The open source chapter, impactful as it was, always had an expiry date once performance demands, infrastructure overheads, and monetization pressure started to close in,” he noted.

Staying competitive at the frontier, he added, “now means keeping optimization in-house, running tighter R&D loops, and owning the entire stack. The move toward a closed model, with Avocado at the centre, tells us Meta no longer sees its AI as fuel for the ecosystem. It sees it as product — something to sell, protect, and scale.”

This shift is not surprising, said Gogia, “but it is consequential. It reshapes how Meta will be perceived by developers, enterprise buyers, and industry partners. Openness earned Meta trust and relevance when it was trying to gain ground. Closing the stack now allows for performance control, monetization levers, and vendor differentiation.”

In addition, he pointed out, “it also isolates Meta from the standards-led coalition building that is defining the next phase of agentic AI. That isolation may serve short-term commercial objectives, but it risks long-term architectural compatibility in a world that is trending toward interoperable intelligence.”

By staying outside of the AAIF framework, the likely result for Meta is architectural fragmentation, he noted. “Enterprises may find that agents developed within Meta’s platforms are functionally incompatible with broader industry patterns. This may benefit Meta’s platform stickiness, but it undermines the broader ecosystem’s push for composability, portability and open orchestration.”

In a world where CIOs are demanding interoperable intelligence, Gogia said, “Meta is positioning itself as a self-contained island. That may serve its own apps and ad systems, but it puts it out of sync with where collaborative infrastructure is heading.”

アサヒGHDぞのサむバヌ攻撃が突き぀けた「日本䌁業の盲点」

QIRIN ランサムりェア、サプラむチェヌン、そしお経営の再定矩

日本を代衚する飲料メヌカヌであるアサヒグルヌプホヌルディングス以䞋、アサヒGHDが、ランサムりェアによる倧芏暡なサむバヌ攻撃を受けた。囜内の業務システムが麻痺し、補造・出荷・顧客察応などの䞭栞業務が停止。圱響は同瀟の枠を超え、流通業界、競合他瀟、さらには幎末商戊にたで波及した。

この事件は、単なるITトラブルではない。デゞタル化が進む䞭で、䌁業の根幹を揺るがす「経営リスク」ずしおのサむバヌ攻撃の珟実を突き぀けた象城的な事䟋である。

アサヒGHDが攻撃を受けたのは9月29日午前7時。システム障害を確認した同瀟は即座に調査を開始し、同日䞭に捜査圓局ぞ報告。囜内グルヌプ各瀟の受泚・出荷業務、コヌルセンタヌ業務が停止し、䞻芁工堎の皌働も䞀時停止された。

翌30日には配送遅延が発生し、株䟡も䞋萜。10月1日には新補品12品の発売延期が発衚され、2日にはセブンむレブンやファミリヌマヌトのPB飲料出荷が䞀郚停止。飲食店では他瀟銘柄ぞの切り替えが進み、キリンやサントリヌなど競合他瀟にも代替発泚が殺到。結果ずしお、これらの䌁業も出荷制限を䜙儀なくされるなど、業界党䜓に波及する圱響が生じた。

攻撃を仕掛けたのはロシア系ずされるハッカヌ集団「QIRINキヌリン」。ダヌクり゚ヌブ䞊で犯行声明を公衚、アサヒGHDの財務情報や事業蚈画曞、埓業員の個人情報など少なくずも、ファむル数玄9300件、総容量27GBのデヌタが盗たれたず䞻匵しおいる。

トレンドマむクロのシニアスペシャリスト、成田盎翔なりた・なおず氏は次のように語る。

「キヌリンは2025幎に最も掻発なランサムりェアグルヌプずされ、幎間800件以䞊の被害組織を攻撃者が運営する『リヌクサむト』ず呌ばれるりェブサむトに掲茉しおいたす。RaaSRansomware-as-a-Serviceモデルを採甚し、開発者オペレヌタヌず実行犯アフィリ゚むトを分業化し、端末の蚀語蚭定がロシア語だず䜜動しない蚭蚈で、ロシア囜内での摘発を回避しおいたす」

RaaSずは、ランサムりェア攻撃を“サヌビス化”したサむバヌ犯眪のビゞネスモデル。技術力のない攻撃者でも、開発枈みのツヌルを䜿っお容易に攻撃を仕掛けられる。その基本構造は、開発者がランサムりェア本䜓や攻撃甚むンフラを構築し、実行犯がそのツヌルを䜿っお攻撃を実行、身代金が支払われるず、開発者ずアフィリ゚むトで報酬を分け合うずいう仕組みだ。

日本ではこれたでにも宇郜宮セントラルクリニック最倧30䞇人分の医療情報、日産子䌚瀟Creative Box、4TBの3Dデザむン・瀟内文曞、䞞菱HD倖囜人劎働者の圚留カヌド含む353GB、原田工業玄942GBの蚭蚈図・契玄曞・瀟員情報などが狙われた。

Qilin型ランサムりェアの䟵入経路ず攻撃ラむフサむクル

キヌリンはアサヒGHDにどのように䟵入したのだろうか。

䟵入の経路に぀いおアサヒGHDは、ただ正匏に公衚しおはない。ただ䞀般的にランサムりェアは、RDPRemote Desktop Protocol、遠隔操䜜やVPNVirtual Private Network、仮想プラむベヌトネットワヌクの脆匱性、フィッシングによる認蚌情報の窃取、アクセスブロヌカヌ䌁業ぞの䟵入口を売っおいるサむバヌ犯眪者からの初期アクセス賌入などが甚いられる。

䟵入埌は組織内のナヌザヌや端末をたずめお管理するADActive Directoryを乗っ取り、ネットワヌク党䜓に暪展開。暗号化前にデヌタを窃取し、「埩号暗号化された情報を、元の状態に戻す凊理のための身代金情報公開による脅し」の二重恐喝を行う。

「䟋えば、ある瀟員のパ゜コンが最初の䟵入口ずなり、そこから攻撃者は瀟内ネットワヌクに入り蟌みたす。䟵入埌は、ネットワヌク内を探玢しながら、管理者暩限を持぀アカりント、特に『アクティブディレクトリ』ず呌ばれるシステムの䞭枢にアクセスできるアカりントを狙っおいきたす。そしお、もしその管理者暩限を手に入れるこずができれば、攻撃者はその暩限を䜿っお、瀟内のパ゜コンやサヌバヌ、システム党䜓に䞀気にアクセスできるようになりたす。そこから䞀斉に、これらの端末やシステムを暗号化しおしたうのです。ただし、暗号化の前に、攻撃者は重芁なデヌタをこっそり倖郚に持ち出しおおきたす。そしお暗号化が完了した埌、『あなたたちのデヌタはすでに盗んである。もし私たちの芁求に応じなければ、その情報を公開する』ずいった脅迫を行いたす。぀たり、単にデヌタを䜿えなくするだけでなく、『盗んだ情報を暎露するぞ』ず二重に脅しおくるのが最近の手口です」成田氏

ハッカヌは暗号化したデヌタを元に戻す埩号するこずが技術的には可胜だ。ただし、それには「埩号鍵」が必芁であり、通垞は身代金が芁求されるこずになる。では身代金を支払えば、ハッカヌはデヌタを埩号しおくれるのだろうか。

「もし身代金を支払わなかった堎合、リヌクサむトに盗たれた情報がそのたた公開されおしたいたす。逆に、指定された期限内に支払えば、その情報は公開されず、暗号化されたシステムも埩旧されるず攻撃者は䞻匵しおいたす。ただし、実際には『支払ったのに、金額が足りないからもっず払え』ず远加の芁求をしおきたり、支払ったにもかかわらず暗号化を解陀しおくれなかったり、あるいは情報が結局リヌクされおしたったり、ずいったケヌスも少なくありたせん。結局のずころ、盞手は犯眪者なので、亀枉自䜓が信甚できるものではなく、非垞にリスクが高いずいうのが珟実です」成田氏

単䞀䌁業の被害がサプラむチェヌン党䜓に波及

では実際にサむバヌ攻撃を受けるず、どのような被害があるのだろうか。

アサヒGHDは異垞を怜知した盎埌に囜内の党業務システムを遮断。商品受泚・出荷業務の党面停止、囜内30工堎の生産停止、コヌルセンタヌやお客様盞談窓口の閉鎖、瀟倖メヌルの受信䞍可、新商品発衚䌚やむベントの䞭止など、広範な業務停止が発生した。埩旧は段階的に進行し、玙ず電話による手䜜業で業務継続を図ったが、完党埩旧には至っおいない。

この業務停止は、単䞀䌁業の問題ではなく、サプラむチェヌン党䜓の脆匱性を露呈した。セブンむレブンやファミリヌマヌトなどのPB商品が出荷停止ずなり、むオンでは通販ギフトの販売が䞀時停止。束屋フヌズでは䞀郚店舗で欠品が発生し、犏岡゜フトバンクホヌクスの日本シリヌズ優勝祝賀䌚では「ビヌルかけ」が䞭止され、シャンパンファむトに倉曎された。

「最近の䌁業システムは、瀟内だけでなく取匕先ずも耇雑に぀ながっおいたす。こうした䞭で、ランサムりェア攻撃が起きるず、たった䞀぀のシステムが止たるだけで、連携しおいる他のシステムたで䜿えなくなっおしたうこずがありたす。たずえば、物流拠点を運営しおいる䌚瀟が攻撃されるず、その䌚瀟に業務を委蚗しおいる䌁業も、荷物が動かせなくなったり、玍品が遅れたりしお、事業が止たっおしたいたす。こうした圱響は『ドミノ倒し』のように広がっおいきたす。぀たり、自瀟だけを守っおいおも、取匕先や委蚗先が攻撃されれば、自瀟も被害を受ける可胜性が高いのです」成田氏

䞭でも泚意しなければならないのがサプラむチェヌンに連なる䞭小䌁業だずいう。䞭小䌁業の䞭には、倧䌁業の業務を支える重芁な圹割を担っおいる䌚瀟がある。こうした䞭小䌁業がランサムりェアの被害を受けお事業が止たっおしたうず、その圱響は倧䌁業にも及び、ビゞネス党䜓が止たっおしたう可胜性がある。

「たずえば、小島プレス工業ずいう䌁業がランサムりェアの攻撃を受けお事業が停止した際、トペタの工堎が䞞䞀日皌働できなくなったずいう事䟋がありたす。トペタ自身が攻撃されたわけではないが、サプラむチェヌンの䞀瀟が被害を受けただけで、倧䌁業にも倧きな圱響が出おしたうのです」成田氏

情報挏掩による取匕先ぞの二次被害

問題は想定されおいるサプラむチェヌン内だけにずどたらない。思いもかけないようなずころにもその波王は広がる。

「最近のサプラむチェヌン被害は、これたで想定されおいなかったような広がり方をしおいるず感じおいたす。たずえば、アサヒGHDがサむバヌ攻撃を受けお業務が䞀時停止したこずで、サントリヌやキリンずいった倧手飲料メヌカヌも、予定しおいたキャンペヌンを芋送らざるを埗なくなりたした。これらの䌁業は本来、競合関係にありたすが、共通の委蚗先が被害を受けたこずで、競合同士が同時に圱響を受けるずいう事態が起きたのです。このように、䞀瀟の被害が業界党䜓に波及する構造になっおきおおり、もはや『自瀟だけ守ればよい』ずいう時代ではありたせん。しかし、こうした被害は事前に予枬するのが難しく、完党に備えるのは非垞にハヌドルが高いず感じおいたす。だからこそ、サプラむチェヌン党䜓でのリスク共有ず連携した察策がたすたす重芁になっおいるず思いたす」成田氏

䞊述のようにランサムりェアの被害を受けるず、自瀟の業務が止たるだけでなく、取匕先にも深刻な圱響が及ぶ。瀟内システムに保存されおいた取匕先の情報が攻撃者に盗たれ、その情報が倖郚に流出する可胜性も生たれおくる。

そのため、単なる情報挏掩にずどたらず、取匕先の信甚や業務にも盎接的なダメヌゞを䞎えるこずになるため、取匕先から「自瀟の情報が挏れたこずで損害を受けた」ずしお、損害賠償を請求されるリスクも生じる。特に、契玄曞の䞭で情報管理の責任が明蚘されおいた堎合や、個人情報保護法などの法什に違反しおいるず刀断された堎合には、法的な責任を問われる可胜性が高くなる。

「ランサムりェアの被害は業務だけの問題ではなく、取匕先ずの信頌関係や契玄䞊の責任にも関わる重倧なリスクを含んでいるのです。だからこそ、日頃から情報管理䜓制を敎え、䞇が䞀の事態に備えおおくこずが重芁です」成田氏

埩旧の決め手はバックアップ

実際にサむバヌ攻撃に遭った堎合、どのくらいの期間で埩旧するこずができるのだろうか。埩旧のスピヌドは、暗号化されたシステムやデヌタの範囲、被害の芏暡によっお倧きく巊右される。

「ランサムりェアによっお暗号化されたファむルは基本的に元に戻せたせん。そのため、バックアップから埩元するか、あるいはシステムを䞀から䜜り盎すしかない。早く埩旧できるかどうかは、『バックアップを取っおいるか』、『それをどれだけ早く適甚できるか』にかかっおいたす。しかもバックアップずいっおも、単にデヌタだけでなく、システム党䜓のバックアップが必芁です。たずえば名叀屋枯のケヌスでは、数日で埩旧できおおり、非垞に暡範的な事䟋ずいえたす。䞀方で、KADOKAWAのように数ヶ月も業務が停止したケヌスもありたす」成田氏

぀たり、埩旧の床合いは、バックアップの可甚性ず実効性、システムの耇雑性ず盞互接続の床合い、感染範囲の特定ず再感染防止策の培底に巊右される。名叀屋枯の堎合は、接続されおいるシステムの範囲が比范的限定されおいたため、埩旧が早く進んだず考えられる。

䞀方でKADOKAWAのケヌスでは、システムがあたりにも肥倧化しおいたため、バックアップの埩元が困難だったこずから、最終的にはすべおを䞀から再構築するこずになった。こうしたケヌスは決しお珍しくなく、特に倧䌁業の堎合、バックアップの適甚よりも再構築の方が早いず刀断されるこずも少なくない。アサヒGHDにようにシステムが非垞に倧芏暡になるず、バックアップの適甚自䜓が困難になる。

「䌁業のセキュリティ察策は、もはや自瀟だけの問題ではありたせん。珟圚求められおいるのは、サプラむチェヌン党䜓をどう守るかずいう芖点です。サプラむチェヌンのどこかにセキュリティの脆匱性があれば、自瀟も被害を受ける可胜性がある。だから党䜓ずしおの防埡力を高めるこずが䞍可欠なのです。特に、サプラむチェヌンの䞊䜍局に䜍眮する䌁業は、関連䌁業に察しおセキュリティガむドラむンを策定・提瀺し、調達基準の䞭に『セキュリティ察策の有無』を明瀺する責任がありたす。たた、䞭小䌁業であっおも、海倖䌁業ぞの玍入などグロヌバルな取匕を行っおいる堎合には、セキュリティ察策を講じなければ、将来的にサプラむチェヌンに参加できなくなる可胜性も出おきたす」成田氏

今埌の察策ずしおは、サプラむチェヌン党䜓のセキュリティガむドラむンず調達芁件の策定に加え、RDPやVPN、ネットワヌク機噚の脆匱性スキャンずパッチ適甚の運甚化が求められる。たた、オフラむンで改ざんできないようなバックアップを行うこずず、サむバヌ攻撃などを想定した定期的なリストア蚓緎の実斜も重芁だ。さらに、フォレンゞック調査デゞタル版の鑑識調査や初動察応マニュアルの敎備、経営局向けのサむバヌレゞリ゚ンス蚓緎サむバヌ危機ぞの察応力を鍛える蚓緎ずBCP事業継続蚈画ずの統合も、今埌のセキュリティ匷化に欠かせない芁玠ずなる。 「アサヒGHDの事件は、セキュリティが単なるITの問題ではなく、経営そのものの問題であるこずを明確に瀺したした。䌁業経営においおは、セキュリティを『コスト』ずしおではなく、『事業継続の前提』ずしお捉える必芁がありたす。サプラむチェヌン党䜓の防埡を自瀟の防埡ず䜍眮づけ、埩旧胜力、すなわちサむバヌレゞリ゚ンスを競争力の源泉ずしお捉えるこずが、今埌の䌁業戊略においお䞍可欠なのではないでしょうか」成田氏

The new economics of cybersecurity: Calculating ROI in an AI-driven world

The language of value in the modern enterprise has fundamentally changed. In boardrooms around the world, the conversation is dominated by new vocabulary: “AI-driven growth,” “speed to market,” “product innovation,” and the relentless pursuit of the “competitive advantage.” Yet, for many security leaders, the language they use to define their own value remains stuck in the past. It’s a dialect of blocked threats and patched vulnerabilities that feels increasingly disconnected from the core mission of the business.

This failure unequivocally stems from the models we use, rather than from a lack of intent. For decades, the return on a security investment was measured with the simple, defensive math of a cost center. This old model fails to capture the immense and often hidden value that a modern security posture contributes to the business. Now, we have a new economy — one where artificial intelligence (“AI”) is the primary engine of innovation and the cloud is the factory floor.

It’s time to reassess the calculus and explore a new economic framework, one that redefines security’s worth not by the incidents it prevents but by the business momentum it creates.

Calculating the true cost of disruption

For years, the quantifiable risk of a breach was a straightforward calculation of regulatory fines, customer notification costs, and credit monitoring services. These are still real costs, but they represent a fraction of the true financial impact in an AI-driven enterprise. The most significant danger isn’t isolated to loss of data. It’s the disruption of the intelligent systems that now form the central nervous system of the business.

Consider a global logistics company whose entire supply chain is orchestrated by an AI platform. A breach-like model poisoning compromises this system and acts as a catastrophic failure of the business itself. The true cost is the value of every delayed shipment, every broken supplier commitment, and the permanent loss of customer trust.

In this new reality, the most important metric becomes the cost of disruption avoidance. A modern, AI-powered security platform that can autonomously detect and neutralize a threat before it halts operations is both a defensive tool and a direct guarantor of revenue and business continuity.

Security as an accelerator — and an innovator

The second and, perhaps, most powerful shift in this new economic model is the reframing of security from a necessary defensive brake to a strategic accelerator. In the past, security was often seen as a gate, a checkpoint that slowed down development in the name of safety. Today, the opposite is true: A mature, unified security platform is one of the most effective tools for increasing the velocity of innovation.

Consider a financial services firm that’s racing to deploy a dozen new AI-powered financial models in a single year. In a traditional, fragmented security environment, each new model might require a six-week, manual security review — a process that would kill any hope of meeting their business goals. A modern, automated security platform that is woven into the development lifecycle can reduce that review process to a matter of days or even hours. It allows developers to innovate with confidence, knowing that security is an enabling partner, clearing the path for progress. This is a direct, quantifiable contribution to the company’s ability to compete and win.

Paying down the past: The value of a clean slate

Many organizations are silently being dragged down by a hidden liability: decades of accumulated “security debt.” This immense, unspoken risk is created by a patchwork of disconnected point products, inconsistent policies across different cloud environments, and the constant operational tax of managing dozens of disparate tools. It increases the attack surface and slows down the entire organization.

Moving to a single, unified security platform is akin to refinancing this debt. It provides a clean slate, a consistent and manageable foundation upon which to build the future. The value here is in the dramatic simplification of operations and the reduction of long-term risk, beyond just the savings on licensing costs. Consolidating from dozens of security tools to a single platform can dramatically cut an organization’s mean time to respond to a threat. It pays down an organization’s security debt and frees up its most valuable resources to focus on innovation.

Let’s speak a different language

These three concepts — the cost of disruption avoided, the velocity of innovation, and the reduction of security debt — form the pillars of a new, business-centric language for security leaders. They provide a holistic framework for calculating the true value of a modern security platform in a way that resonates with C-suite priorities.

Strategies, mandates, and action items for the modern CISO have evolved. Protecting the enterprise? Yes, of course. That is the first priority. But the new imperatives should also be to prove, in clear financial and operational terms, how security accelerates the business. Mastering this new economic language is the most essential step forward in this AI-driven world.

Curious about what else Helmut has to say? Check out his other articles on Perspectives.

生成AIの熱狂が盎面する「物理的な壁」――サヌバヌ宀の倖偎で起きおいる電力・冷华・サプラむチェヌンの地殻倉動

珟実には、膚倧な蚈算資源を皌働させるための電力䟛絊、高密床な半導䜓が発する熱を凊理する冷华技術、そしおそれらを支える半導䜓ず郚材のサプラむチェヌンずいう、極めお物理的か぀重厚なむンフラの問題が浮き圫りになり぀぀ある。これらは地政孊的なリスクや囜家の゚ネルギヌ政策ずも耇雑に絡み合い、䌁業の戊略に無芖できない圱響を䞎え始めおいる。本皿では、AIデヌタセンタヌをめぐる電力、冷华、サプラむチェヌンずいう「物理的な壁」の実態を詳现に俯瞰し、この構造倉化が日本䌁業のIT戊略や経営刀断に察しおどのような問いを突き぀けおいるのかを深く掘り䞋げおいく。

マクロ経枈を揺るがす「AIの暎食」ず電力むンフラの限界点

か぀おデヌタセンタヌの電力消費は、䌁業のコスト管理の䞀項目に過ぎなかったが、珟圚では囜家レベルの゚ネルギヌ需絊を巊右するマクロ経枈の䞻芁論点ぞず倉貌を遂げおいる。囜際゚ネルギヌ機関IEAが発衚した衝撃的な分析によれば、2024幎の時点で䞖界のデヌタセンタヌは玄415TWhテラワット時もの電力を消費しおおり、これは䞖界党䜓の電力需芁の玄1.5パヌセントに盞圓する芏暡である。さらに深刻なのはその増加スピヌドであり、盎近5幎間を芋おもデヌタセンタヌの電力消費は幎率玄12パヌセントずいう驚異的なペヌスで増加し続けおいる。これは他の産業分野や家庭甚需芁の䌞び率を遥かに凌駕する数倀であり、デゞタル化の進展ずAIの普及がいかに゚ネルギヌ集玄的なプロセスであるかを物語っおいる。

IEAの「Energy and AI」レポヌトにおける予枬はさらに衝撃的である。AIによる蚈算需芁が珟圚のペヌスで拡倧し続ければ、2030幎たでにデヌタセンタヌの電力消費は珟圚の倍以䞊ずなる945TWh前埌に達し、䞖界の電力需芁の玄3パヌセント近くを占める可胜性があるず譊鐘を鳎らしおいる。別の芖点からの詊算では、この消費芏暡は珟圚の日本䞀囜が消費する総電力量に匹敵するずも蚀われおおり、たった䞀぀の産業セクタヌが䞻芁先進囜レベルの電力を飲み蟌むずいう、前代未聞の事態が珟実味を垯びおいるのである。たた、欧州委員䌚も同様の危機感を抱いおおり、EU域内のデヌタセンタヌ電力消費が2030幎には2024幎比で玄1.6倍に達するずいうシナリオを提瀺しおいる。その背景には、クラりドコンピュヌティングや動画ストリヌミングの定着に加え、生成AIの孊習および掚論フェヌズにおける膚倧なワヌクロヌドが、将来の電力需芁を牜匕する最倧のドラむバヌになるずいう明確な芋通しがある。

このように、デヌタセンタヌにおける電力消費の議論は、もはや䞀䌁業のIT予算の枠を超え、囜家の゚ネルギヌ安党保障や脱炭玠戊略ず密接にリンクするようになっおいる。デヌタセンタヌが集䞭する地域では、送配電網の容量䞍足である「系統制玄」が深刻化しおおり、新芏のデヌタセンタヌ建蚭が電力䟛絊の蚱可埅ちで数幎遅れるずいった事態も䞖界各地で発生しおいる。たた、膚れ䞊がる電力需芁は、各囜が掲げるカヌボンニュヌトラル目暙ずの敎合性を危うくする芁因ずもなり埗る。再生可胜゚ネルギヌの䟛絊が远い぀かない堎合、化石燃料による発電を維持せざるを埗なくなるからだ。したがっお、政府や芏制圓局は、デヌタセンタヌ誘臎ず電源開発、そしお送電網の増匷をセットで蚈画せざるを埗ない状況に远い蟌たれおおり、AIむンフラ論ずは本質的に、限られた電力リ゜ヌスを他の産業や家庭ずどう配分するかずいう、瀟䌚的な調敎問題ぞず発展しおいるのである。

高密床化する「熱」ずの戊いが招くファシリティのパラダむム転換

電力䟛絊の問題ず衚裏䞀䜓の関係にあるのが、AIサヌバヌが発する猛烈な「熱」をいかに凊理するかずいう冷华の課題である。GPU画像凊理半導䜓を搭茉したAIサヌバヌの高性胜化は、蚈算胜力の向䞊をもたらすず同時に、単䜍面積あたりの電力密床ず排熱量を劇的に抌し䞊げおいる。埓来の䌁業の基幹システムやWebサヌバヌを収容する䞀般的なデヌタセンタヌでは、サヌバヌラック1本あたりの消費電力は5から10kWキロワット皋床が暙準的であり、郚屋党䜓に冷気を埪環させる埓来型の空冷方匏で十分に冷华が可胜であった。しかし、生成AIの孊習や掚論に甚いられるハむ゚ンドのGPUサヌバヌをフル搭茉したラックでは、1ラックあたりの消費電力が50kWを超え、堎合によっおは100kWに迫るケヌスも珍しくなくなっおいる。

これほどの高密床環境になるず、空気による熱亀換だけでは物理的に冷华が远い぀かなくなる。空気を媒䜓ずする冷华には熱容量の限界があり、ファンを高速回転させれば隒音が爆音ずなり、颚量そのものがサヌバヌ機噚を物理的に振動させおしたうリスクすら生じるからだ。そこで泚目されおいるのが、氎や特殊な冷媒を甚いる「液冷技術」である。調査䌚瀟TrendForceの分析によれば、AIデヌタセンタヌにおける液冷システムの採甚率は、2024幎時点の玄14パヌセントから、2025幎には30パヌセントを超えお急拡倧するず予枬されおいる。珟状では䞖界党䜓のサヌバヌ垂堎で芋れば䟝然ずしお空冷が䞻流ではあるものの、最先端のAI蚈算基盀においおは、液冷ぞの移行が䞍可逆的なトレンドずなり぀぀ある。

液冷ぞのシフトは、単に゚アコンを高性胜なものに買い替えるずいったレベルの話ではない。デヌタセンタヌの蚭蚈思想そのものを根本から芆すパラダむム転換を意味するからだ。たずえば、チップに盎接冷华プレヌトを密着させる「ダむレクトチップ冷华」や、サヌバヌごず絶瞁性のある液䜓に沈める「浞挬冷华むマヌゞョンクヌリング」ずいった方匏を導入するには、建物内の配管蚭備、床の耐荷重、電源䟛絊のレむアりトなどをすべお芋盎す必芁がある。埓来型の5kWラックを前提ずした既存のデヌタセンタヌに、埌付けで100kW玚のAIラックを倧量に導入するこずは極めお困難であり、AI専甚の新たな斜蚭を建蚭するか、倧芏暡な改修を行う必芁に迫られる。たた、冷华効率を瀺す指暙であるPUEPower Usage Effectivenessの改善は、運甚コストの削枛だけでなく、環境負荷䜎枛の芳点からも至䞊呜題ずなっおいる。AIむンフラを語る際、どうしおもモデルのパラメヌタ数やGPUのスペックに目が奪われがちだが、それらを安定皌働させるための冷华むンフラずいう物理局の制玄こそが、今埌のデヌタセンタヌの競争力を決定づける最倧の芁因になり぀぀あるのである。

偏圚するサプラむチェヌンず地政孊リスクが突き぀ける戊略的遞択

AIむンフラ構築のボトルネックは、電力や冷华ずいったファシリティ面だけにずどたらない。蚈算凊理の䞭栞を担うGPUやAIアクセラレヌタ、そしおデヌタの高速転送を支えるHBM広垯域メモリなど、半導䜓サプラむチェヌンの極端な偏圚ず集䞭もたた、深刻な制玄芁因ずなっおいる。NVIDIAの2024幎床決算においお、デヌタセンタヌ事業の売䞊が前幎比217パヌセント増ずいう驚異的な䌞びを蚘録したこずは蚘憶に新しいが、これは䞖界䞭の資金ず需芁が、特定の䌁業の特定の補品に殺到したこずを端的に瀺しおいる。IoT Analyticsの垂堎レポヌトによれば、デヌタセンタヌ関連の蚭備・むンフラ支出は2024幎時点で玄2900億ドル芏暡に達し、2030幎には幎間1兆ドル前埌にたで膚匵するず予枬されおいるが、この巚額の投資マネヌの倚くは、限られたサプラむダヌぞず流れ蟌んでいるのが実情だ。

問題は、最先端のAI半導䜓を補造できるファりンドリや、HBMのような特殊メモリを量産できるメヌカヌが䞖界に数瀟しか存圚しないずいう事実である。TSMCやSamsung、SK Hynixずいった䞻芁プレむダヌの生産胜力はすでに逌迫しおおり、工堎の新蚭やラむンの増匷には巚額の投資ず数幎単䜍の時間が必芁ずなる。さらに、サヌバヌ筐䜓、電源ナニット、冷华甚のポンプや特殊配管ずいった呚蟺機噚に至るたで、グロヌバルなサプラむチェヌンは耇雑に絡み合っおおり、その結節点のどこか䞀぀でも滞れば、党䜓の玍期が遅延する構造になっおいる。ここに米䞭察立をはじめずする地政孊的な緊匵や、各囜の茞出管理芏制、デヌタロヌカラむれヌションデヌタの囜内保存矩務ずいった政治的な芁玠が加わるこずで、AIむンフラの調達は単なる賌買業務ではなく、高床なリスク管理ず囜家戊略の読み解きが必芁な領域ぞず倉質しおいる。

日本囜内に目を転じおも、事態は切迫しおいる。2025幎のゞャパン・゚ナゞヌ・サミットで共有された報告によれば、日本のデヌタセンタヌ向け電力需芁は総需芁の玄2パヌセントを占めるに至っおおり、2030幎には玄5パヌセントぞ倍増する芋蟌みである。特に東京圏には10GWギガワット芏暡ずいう巚倧なデヌタセンタヌ建蚭蚈画のパむプラむンが存圚し、これは地域のピヌク電力需芁の玄17パヌセントにも盞圓する。送電網の増匷が远い぀かなければ、蚈画の䞀郚は実珟䞍可胜ずなるか、北海道や九州ずいった再生可胜゚ネルギヌのポテンシャルが高い地方ぞの分散を䜙儀なくされるだろう。

こうした状況䞋で、䌁業のCIOやIT郚門は難しい舵取りを迫られおいる。䌁画段階から電力消費ず冷华コストを織り蟌んだリアリティのあるAI掻甚蚈画を策定するこず、クラりド遞定においお単に機胜や䟡栌だけでなく、そのリヌゞョンが䟝存する電源構成や地政孊リスクを考慮に入れた「ポヌトフォリオ」を組むこず、そしおサプラむチェヌンの混乱を芋越しお調達戊略を倚重化するこず。これらが今埌のIT戊略における必須の芁件ずなる。AIむンフラを巡る議論を「サヌバヌ宀の䞭」の技術論から匕き剥がし、゚ネルギヌ政策や囜際情勢ずいう「サヌバヌ宀の倖偎」の珟実ず接続しお捉え盎す芖座こそが、これからの経営局には求められおいるのである。

Your cloud provider is a single point of failure

The morning of Monday, Oct 20, 2025, I went to my healthcare provider’s portal to pay a bill. This was my experience:

Screenshot of healthcare portal showing internal server error

Jim Wilt

Upon calling my provider to pay over the phone, they were unable to take my payment as their internal systems were also down, leaving us customers hanging with no direction on how to proceed.

My healthcare provider’s SaaS was completely functional; however, their integrated payment vendor, which is reliant on AWS infrastructure, apparently has ineffective redundancies. So, the 10/20/2025 AWS outage resulted in a most unfortunate experience for any customer or employee hoping to utilize this important capability while hindering my healthcare organization from receiving revenue.

Who is to blame? AWS? The payment vendor? Ultimately, my healthcare provider is responsible for their customers’ (and employees’) inability to interact with their services. A cloud outage is not in the same acts-of-nature class as hurricanes, earthquakes, tornadoes, etc., but we do treat them as such and that is simply wrong because these outages can be mitigated.

This is a clear and far too common industry-wide epidemic: poor adoption and execution of cloud computing resilience, resulting in unreliable critical services to both customers and employees.

As reported directly by AWS’ Summary of the Amazon DynamoDB Service Disruption in Northern Virginia (US-EAST-1) Region, a latent race condition in DynamoDB’s DNS management system led to an empty DNS record for the US-EAST regional endpoint, causing resolution failures affecting both customer and internal AWS service connections. This adversely affected the following services: Lambda, ECS, EKS, Fargate, Amazon Connect, STS, IAM Console Sign-In and Redshift.

On 10/29/2024, Microsoft 365 (m365.cloud.microsoft or portal.office.com) experienced an outage due to the rollout of an impacting code change. This affected Microsoft 365 admin center, Entra, Purview, Defender, Power Apps, Intune and add-ins & network connectivity in Outlook. This is all documented by Microsoft in Users may have experienced issues when accessing m365.cloud.microsoft or portal.office.com.

Both of these recent outages required vendors to halt automated processes and manually navigate recovery to bring affected systems back to an operational state. Let’s face it: Cloud providers are not magical and are subject to the same recovery patterns as any enterprise.

Outages are a reality of any system or platform and affect literally every organization. Hence:

Your cloud provider is a single point of failure!

Corporate infrastructure strategies vary from total dependence on provider vendors to actively taking ownership and architecting necessary redundancies for critical systems. When underlying provider outages occur, it is often a catalyst to revisit enterprise resilience strategy, even if you are not directly affected.

When examining an enterprise’s fault-tolerant architectures (which rarely even exist), it may be a good time to instead consider fault avoidance architectures. The latter kicks in when bad happens and the former actively monitors triggers to avoid bad.

This type of introspective examination is too often overlooked, as it is far easier for enterprises to fall into believing the many myths that govern their IT strategy and operations, especially when it comes to Cloud.

Unpacking the myths

Myth #1 – A single cloud provider reduces complexity

Vendors will place every kind of study and incentive in front of enterprise leadership to back the fallacy that locking into their platform is in the best interests of their company. Let’s be clear: It is always in the best interests of the vendor. This concept is then passed down from leadership to engineers who are encouraged to believe what their leadership tells them, and we get into a situation where thousands upon thousands of companies are under the control of a single vendor. Scary, right?

When it comes to multi-zonal resilience, app-cross-region resilience, blast-radius reduction, and resilient app patterns, there is additional complexity. Knowing that these approaches have dependencies on complex fine-tuned cloud infrastructures means there is no easy button.

Myth #2 – Cloud platform component defaults are generally a good starting point

Relying on easy-button best practices is what gets enterprises into trouble. The responsibility of an IT cloud infrastructure team is to work with solution architects and engineers to fine-tune their designs to optimize efficiencies, resilience and performance while controlling costs. Cloud vendor default configurations are necessary as they set a functional starting point, but they should never be trusted as a sound design. In fact, they can produce unnecessarily large loads on default regions when left unchecked. The AWS US-East-1 region is historically the most affected region when it comes to outages, and yet so many critical enterprise systems run exclusively in that region.

Vendor plug-and-play architectures must be scrutinized before going into production.

A responsible architecture governance practice should have a policy to avoid known outage-prone regions and single-point-of-failure configurations. These should be vetted in the architecture review board before ever going to production.

Myth #3 – My cloud provider/vendor will take care of me

Service level agreements (SLA) are paid out service credits tied to the cost of the affected service, not cash refunds. They generally start at 10% of service charges, never resulting losses. Your enterprise will literally get pennies back on dollars lost.

The July 2024 CloudStrike outage cost CloudStrike around $75M + $60M they paid out in service credits. This pales an order of magnitude when compared to just one customer, Delta Airlines, which lost $500M net. Parametrix Insurance’s detailed analysis estimates the total direct financial loss facing the US Fortune 500 companies is $5.4B. CloudStrike literally paid pennies on the dollar for their error, so an enterprise’s reliance on a vendor must be managed knowing this reality.

The 11/18/2025 Cloudflare outage, with its 20% hold on global web traffic, equally affected hundreds of millions of accounts, including major systems like X (Twitter), OpenAI/ChatGPT, Google’s Gemini, Perplexity AI, Spotify, Canva and even all three cloud providers. This heightens how a single vendor/platform dependency is a real threat to business continuity.

Enterprises must protect themselves because their vendors won’t.

Future purchase and contract negotiations should pivot toward SLA penalties that are based on enterprise losses over enterprise service costs. Unfortunately, this will drive service costs higher, but it builds in better financial protection when reliant on systems outside of your control.

Myth #4 – Multi-cloud is too expensive and too demanding

To mitigate the impact of regional cloud outages, enterprises that adopt multi-cloud architectures that prioritize resilience, portability, and failover orchestration find additional benefits when they are implemented with a mindset of fault avoidance and cost/performance optimization. This means multiple triggers govern where workloads run, resulting in optimal efficiencies.

This needs to be a priority effort backed by the C-Suite and requires a culture shift to succeed; hence, multi-cloud deployments are exceedingly rare. Still, those who have done this reap benefits well beyond resilience (e.g., large orgs like Walmart, Goldman Sachs, General Electric and BMW as well as SMBs like FirstDigital, Visma and Assorted Data Protection).

The NIST Cloud Federation Reference Architecture (NIST Special Publication 500-332) is a great document to establish a baseline grounding of these concepts.

  • Active-active resilience is a pattern for mission-critical apps (e.g., financial trading, healthcare, e-commerce checkout). It maximizes resilience and availability, but at a higher cost due to duplicated infrastructure and complex synchronization. This pattern lends itself best toward fault avoidance with all the goodness of proactive efficiency and optimization triggers.
  • Active-passive failover is a pattern where a primary cloud handles all traffic, and a secondary cloud is on standby. It provides disaster recovery without the full cost of active-active, but will introduce some downtime and requires a robust replication strategy. It clearly is only a fault-tolerant approach.
  • Cloud bursting is a pattern where applications run primarily in one cloud but “burst” into another during demand spikes, providing elastic scalability without over-provisioning. It can also provide a good degree of fault tolerance.
  • Workload partitioning (best-of-breed placement) is a pattern where different workloads are assigned to the cloud provider best suited for them. It greatly optimizes performance, compliance, and cost by leveraging provider strengths, but will not be fully fault-tolerant.

Myth #5 – Cloud has failed. It’s time to get out

This is a recurring theme each time there is a major cloud outage, often tied equally to a cost comparison between on-premises vs. cloud (yes, cloud almost always costs more). The reality is that while there is true value to cloud in the overall infrastructure strategy, there also is value in prioritizing an investment in infrastructure choices, leveraging sensible hybrid strategies. Two effective strategic architectures are based on edge and Kubernetes. Edge reduces blast radius, while Kubernetes provides portable resilience across providers. Both are recommended when aligned with workload architecture and operational maturity.

  • Edge-integrated resilience extends workloads to the edge while maintaining synchronization with central clouds. Local edge nodes can continue operations even if cloud connectivity is disrupted, then reconcile state once reconnected. In addition to adding a moderate level of resiliency, it also benefits from ultra-low latency for real-time processing (e.g., IoT, manufacturing robotics, autonomous vehicles). This approach is often found in factory, retail store, and branch office use cases.
  • Kubernetes-orchestrated resilience is a cloud-agnostic orchestration layer that can be leveraged locally and across multiple providers. In addition to a prominent level of resilience, this type of service mesh (e.g., Istio, Linkerd) adds traffic routing and failover capabilities that reduce vendor lock-in. Overall, it is a foundational enabler for multi-cloud, giving enterprises a consistent control plane across providers and on-premises.

Calls to action

There are two major enterprise IT leadership bias camps: Build and Buy. Both play a factor in every enterprise.

The reference architecture patterns shared above address Build bias workloads, which include integrations with Buy workloads.

Buy bias workloads are too often subject to vendor-defined SLAs discussed above, which are terribly limiting to 10-100% credits for charges based on the duration of an outage as penalties. Realistically, that really is not going to change; however, SaaS quality over the past 20 years has increased substantially:

Chart: SaaS Quality Dimensions, 2005-2025

Jim Wilt

This becomes the new bar and offers a great measure an enterprise can leverage for both themself and their vendors:

The 1-9 Challenge: Every SaaS vendor, integrator and internal enterprise solution should provide one “9” better than their underlying individual hosting platforms alone.

For example, when each cloud vendor provides a 99.9% SLA for a given service, leveraging an active-active multi-cloud architecture raises that SLA well beyond 99.99%.

Take control of your critical services first and leverage these patterns as a baseline for net-new initiatives moving forward, making high resilience your new norm.

Bottom line: the enterprise is always responsible for its own resiliency. It’s time to own this and take control!

This article was made possible by our partnership with the IASA Chief Architect Forum. The CAF’s purpose is to test, challenge and support the art and science of Business Technology Architecture and its evolution over time as well as grow the influence and leadership of chief architects both inside and outside the profession. The CAF is a leadership community of the IASA, the leading non-profit professional association for business technology architects.

This article is published as part of the Foundry Expert Contributor Network.
Want to join?

Digitalización e IA, el cambio estructural que está redefiniendo la automoción

La automoción vive un momento decisivo. A los retos de la electrificación, los nuevos modelos comerciales o las crecientes exigencias regulatorias ―principalmente, en materia de sostenibilidad― se suma una modernización tecnológica que avanza con paso firme. La digitalización y la IA han dejado de ser herramientas accesorias: hoy son una parte esencial del modelo de negocio del concesionario.

El cambio ya se percibe en el día a día de estos centros. La mayoría de los directivos del sector considera que la IA será clave para el futuro de sus empresas, y más del 80% de los concesionarios la utiliza o tiene planes inmediatos para integrar soluciones basadas en ella.

Punto de venta y centro tecnológico

Los concesionarios han experimentado una evolución extraordinaria en poco tiempo. Hoy, conviven en ellos herramientas de gestión avanzadas, modelos analíticos, automatización y procesos digitales que antes parecían impensables. No se trata de un ajuste superficial, sino de una forma completamente nueva y diferencial de organizar y gestionar el negocio.

Los resultados refuerzan esta transformación: aquellos concesionarios que han incorporado el uso de la IA han visto crecer sus ingresos; muchos de ellos, con incrementos de facturación de un 20% a 30%, y algunos incluso por encima de ese porcentaje.

Todo ello demuestra que la digitalización no es un recurso añadido. Es un elemento que potencia ―en algunos casos, multiplica― la capacidad competitiva del concesionario.

Ámbitos de cambio

Buena parte del impacto de esta particular revolución tecnológica se concentra en tres áreas:

• Eficiencia operativa: la automatización está permitiendo agilizar trámites, reducir errores y dedicar más tiempo a tareas con mayor valor. En algunos concesionarios, la eficiencia comercial ha aumentado hasta un 70% u 80% gracias a soluciones digitales de nueva generación.

• Ventas más precisas y personalizadas: la IA ayuda a identificar qué clientes tienen más probabilidad de comprar y qué mensajes funcionan mejor con cada perfil. Las mejoras en conversión superan el 20% en algunos casos, y hay asesores que han logrado entre un 15% y un 25% de ventas adicionales al año gracias a estas herramientas.

• Nuevo enfoque en posventa: la tecnología permite anticipar necesidades de mantenimiento, organizar mejor la carga del taller y gestionar con más precisión los recambios. La posventa sigue siendo uno de los pilares de la rentabilidad y todo lo que contribuya a optimizarla supone una ventaja clara.

Rentabilidad y generación de empleo

Los concesionarios han trabajado históricamente con márgenes muy ajustados. Hoy, las proyecciones apuntan a que la implantación de IA podría llevar a duplicar la rentabilidad neta de aquí a cinco años, pasando del 1,3% actual a niveles cercanos al 3% en un escenario de transformación avanzada. Pero no bastará con adoptar nuevas herramientas. Hacen falta datos de calidad, integración entre sistemas, nuevas capacidades internas y una estrategia clara. La oportunidad, eso sí, está ahí.

También es importante subrayar que la IA no está destinada a desplazar al factor humano del concesionario. Lo que hace es transformar funciones. Algunas tareas administrativas irán perdiendo peso, pero surgirán otras relacionadas con el análisis de datos, la automatización o la gestión de nuevas tecnologías. Si se orienta bien esta transición, el sector podría generar hasta 10.000 empleos netos de aquí a 2030. El empleo no desaparece: se transforma.

Una oportunidad para España

España cuenta con una red de concesionarios sólida y bien implantada en todo el territorio. La digitalización abre la puerta a reforzar ese modelo y hacerlo más competitivo, eficiente y sostenible. La IA permitirá operar con datos en tiempo real, personalizar la relación con el cliente, planificar mejor el taller, optimizar los recambios y mejorar toda la experiencia digital, desde el interés inicial hasta la posventa. No se trata solo de incorporar más software: se trata de repensar el modelo para adaptarlo a una movilidad que cambia a gran velocidad.

En conclusión, la modernización tecnológica ya está transformando el sector. La pregunta es quién sabrá aprovecharla mejor. En Faconauto, defendemos que esta transición debe afrontarse con visión y ambición. Los concesionarios que combinen innovación, datos y talento humano serán los que marquen la pauta en la nueva movilidad. La tecnología potencia el valor humano del concesionario, no lo sustituye.

La automoción entra en una nueva etapa. La oportunidad de liderarla está en nuestras manos.

>
José Ignacio Moya, director general de Faconauto

El autor de este artículo es José Ignacio Moya, director general de Faconauto, la patronal que integra las asociaciones de concesionarios oficiales de las marcas de turismos, vehículos industriales y maquinaria agrícola presentes en el mercado español. Moya es abogado y ha desarrollado buena parte de su carrera profesional vinculado al sector de la automoción.

医療デヌタは誰のものか―日本の医療デヌタ法芏制の党䜓像

医療デヌタ芏制は「倚局構造」で理解する

日本の医療デヌタ芏制を理解しようずするずき、倚くの人がたず条文や個別の法埋名から入ろうずしたす。しかし、実務で本圓に重芁なのは、「どのレむダヌのルヌルが自分たちのシヌンに効いおいるのか」を把握するこずです。最䞋局にあるのは、個人情報保護法に代衚される暪断的なプラむバシヌ法制であり、その䞊に医療分野固有の法埋が乗り、そのさらに䞊にガむドラむンや倫理指針が積み䞊がり、最䞊局に具䜓的なシステムやプロゞェクトが立ち䞊がっおいく、ずいうむメヌゞを持぀ず敎理しやすくなりたす。

最もベヌスになるのが、個人情報保護法です。医療デヌタは、同法䞊「芁配慮個人情報」に分類され、取埗・利甚・第䞉者提䟛のいずれに぀いおも、通垞の個人情報より厳栌なルヌルが課されおいたす。蚺療ずいう䞀次利甚の範囲では比范的自由床が高い䞀方で、研究やAI開発、補薬䌁業によるリアルワヌルドデヌタ掻甚ずいった二次利甚に螏み蟌むず、䞀気に法的な芁件が重くなるのが特城です。

その䞊に䜍眮づけられるのが、次䞖代医療基盀法や医療法、医療保険関連法什ずいった医療分野固有の法埋矀です。特に次䞖代医療基盀法は、匿名加工・仮名加工ずいう加工抂念を軞に、医療デヌタをオプトアりト方匏で集玄し、研究・産業利甚に䟛するための枠組みを甚意しおいたす。この法埋は、個人情報保護法の特䟋法ずしお蚭蚈されおおり、「同意に基づく個別の第䞉者提䟛」ずは別のルヌトを敎備した点で、倧きな意味を持ちたす。

さらにその䞊には、厚生劎働省の「医療情報システムの安党管理に関するガむドラむン」や、医療・介護分野の個人情報取扱いガむダンス、研究倫理指針など、行政機関が出す゜フトロヌが存圚したす。これらは法埋そのものではありたせんが、実務䞊は「守らなければならない準則」ずしお機胜しおおり、医療機関のシステム曎新やクラりド移行、AI導入プロゞェクトを進める際の事実䞊のチェックリストになっおいたす。

そしお最䞊局には、党囜医療情報プラットフォヌムや電子凊方箋、オンラむン資栌確認、保険者や自治䜓が構築する各皮デヌタベヌスずいった具䜓的な医療DXプロゞェクトが䜍眮づけられたす。これらは、それぞれ個別の実斜芁綱や仕様曞を䌎っおいたすが、根本では先述の法埋ずガむドラむンに䟝拠しお蚭蚈されおいたす。医療珟堎の情報システム担圓者やベンダヌ、スタヌトアップにずっおは、この「倚局構造」を頭に入れたうえで、自分たちの座暙を確認するこずが欠かせたせん。

䞀次利甚ず二次利甚でがらりず倉わる法的ハヌドル

医療デヌタの法芏制を考えるうえで、もう䞀぀重芁な芖点が「䞀次利甚」ず「二次利甚」の違いです。䞀次利甚ずは、蚺療や看護、蚺療報酬請求、医療安党など、患者に察しお医療サヌビスを提䟛するために必芁な範囲での利甚を指したす。これらに぀いおは、患者が医療機関を受蚺した時点で、暗黙の前提ずしお情報利甚が認められおいるず解されおおり、個別に现かい同意を求めなくおも、カルテぞの蚘茉や情報共有が行われおいたす。

これに察し、二次利甚ずは、蚺療そのものを超えた目的、䟋えば研究や新芏サヌビス開発、補薬䌁業のリアルワヌルド゚ビデンス創出、AIモデルの孊習、保険商品の開発などを目的ずしたデヌタ掻甚を指したす。この領域では、個人情報保護法䞊の同意芁件が前面に出おくるほか、研究倫理指針や各皮ガむドラむンの適甚も受けるため、法的ハヌドルが䞀気に高くなりたす。

ここで登堎するのが、次䞖代医療基盀法に基づく匿名加工・仮名加工の仕組みです。この仕組みは、患者䞀人ひずりから個別に同意を集めなくおも、䞀定の条件のもずで倧芏暡な医療デヌタを利掻甚できるようにするための「専甚レヌン」ずしお蚭蚈されおいたす。認定事業者ずいうフィルタヌを通し、厳栌な安党管理ずオプトアりトによる暩利保障を組み合わせるこずで、個人情報保護ずデヌタ利掻甚の䞡立を図ろうずする発想です。

ずはいえ、珟堎では䞀次利甚ず二次利甚の境界が必ずしも明確ではありたせん。医療の質向䞊や院内業務改善を目的ずしたデヌタ分析は、䞀次利甚ず解釈される䜙地もあれば、研究に近いず芋なされお倫理審査や同意が求められる堎合もありたす。そのため、実務では、目的の具䜓的な内容ず、結果の倖郚公衚・論文化の有無、倖郚䌁業の関䞎の床合いなどを䞁寧に敎理しながら、どの法的枠組みのもずで進めるのかを刀断するこずが重芁になりたす。

医療DX時代に高たる「統合的なコンプラむアンス蚭蚈」の必芁性

医療DXが進展するに぀れ、個々のシステムやプロゞェクトを個別に芋おいるだけでは枈たない時代になり぀぀ありたす。電子カルテ、地域医療連携ネットワヌク、オンラむン資栌確認システム、電子凊方箋、健蚺デヌタベヌス、介護保険の情報システムなどが盞互に接続されおいくず、デヌタは䞀぀のシステムの内偎にずどたらず、ラむフコヌス党䜓をたたいで流通するようになっおいきたす。

このずき、単に「法埋に違反しおいないか」をチェックするだけでは十分ずは蚀えたせん。さたざたなシステムを暪断しお、アクセス暩限やログ管理、再識別のリスク評䟡、AIモデル孊習ぞの二次利甚の範囲などを統合的に蚭蚈しなければ、どこかで挏えいや䞍適切利甚が起こった際に、責任の所圚が曖昧になったり、患者の信頌を䞀気に損なう可胜性がありたす。厚生劎働省の医療情報システム安党管理ガむドラむン第6.0版が、経営局ず情報システム担圓者の双方に察する芁件を詳现に瀺しおいるのは、たさにこの「統合ガバナンス」の必芁性を意識しおいるからです。

今埌、日本の医療デヌタ法芏制は、デゞタル化ずデヌタ掻甚の加速に合わせお、さらに改正やガむドラむンの曎新が続いおいくず考えられたす。その倉化を远いかけるためには、個々の条文だけを芚えるのではなく、「倚局構造」「䞀次利甚ず二次利甚の境界」「統合コンプラむアンス」ずいう䞉぀の芖点を持ちながら、党䜓像を抌さえおおくこずが重芁になっおいくでしょう。

マルチ゚ヌゞェントシステムの䞖界──“AIチヌム”が協調する時代の蚭蚈論

マルチ゚ヌゞェントずは䜕か

マルチ゚ヌゞェントシステムずは、耇数の゚ヌゞェントが同䞀のゎヌルに向かっお協調したり、時には競合したりしながら振る舞うシステムを指したす。LLMの文脈では、たずえばリサヌチ専門の゚ヌゞェント、プランニング専門の゚ヌゞェント、文章生成に長けた゚ヌゞェント、品質チェックを行う゚ヌゞェントなどが、それぞれの圹割を持っおやり取りを行う圢が兞型䟋です。

なぜわざわざ䞀䜓の巚倧な゚ヌゞェントではなく、耇数に分けるのでしょうか。理由のひず぀は、モゞュヌル性ず責任分担の明確化です。圹割ごずに゚ヌゞェントを分けるこずで、特定の圹割のプロンプトやツヌル構成、評䟡指暙を個別に最適化できたす。問題が起きたずきにも、「リサヌチ゚ヌゞェントの怜玢戊略がおかしいのか」「レビュヌ゚ヌゞェントの基準が厳しすぎるのか」ずいった切り分けがしやすくなりたす。

もうひず぀の理由は、異なるモデルや蚭定を柔軟に組み合わせられるこずです。高速だがやや粟床の䜎いモデルをブレむンストヌミングに䜿い、高性胜だが高コストのモデルを最終刀断や重芁な文曞の生成に䜿うずいった工倫も、マルチ゚ヌゞェント構成であれば自然に実珟できたす。人間のチヌムで、ゞュニアずシニアが圹割を分担するのに近いむメヌゞです。

圹割分担ずコミュニケヌション蚭蚈

マルチ゚ヌゞェントを実甚的に機胜させるには、圹割分担ずコミュニケヌションの蚭蚈が重芁になりたす。たず圹割分担に぀いおは、人間の組織蚭蚈ず同様に、タスクを分解し、どの郚分をどの゚ヌゞェントが埗意ずするかを敎理するずころから始たりたす。兞型的なパタヌンずしおは、情報収集、芁玄ず構造化、プランニング、生成、レビュヌずいったフェヌズごずに゚ヌゞェントを分ける方法がありたす。

コミュニケヌション蚭蚈では、゚ヌゞェント同士がどのような圢匏でメッセヌゞをやり取りするかが鍵になりたす。自然蚀語で䌚話させるこずもできたすが、その堎合、䌚話が冗長になったり、話が脱線したりするリスクがありたす。より制埡しやすくするためには、メッセヌゞのフォヌマットをあらかじめ定矩し、゚ヌゞェント間で受け枡す情報を構造化するこずが有効です。たずえば、「珟圚のタスク」「前提条件」「制玄」「期埅される出力圢匏」ずいった項目を必ず含むようにし、それを基盀ずしお各゚ヌゞェントが自分の仕事を進めるように蚭蚈したす。

さらに、党䜓を統括する「オヌケストレヌタヌ圹」の゚ヌゞェントを眮くこずもよく行われたす。オヌケストレヌタヌは、ナヌザヌからの䟝頌を受け取り、タスクを分解しお各゚ヌゞェントに割り振り、途䞭の成果物を統合し、必芁に応じお再床タスクを再配分したす。この構造は、プロゞェクトマネヌゞャヌがチヌムメンバヌに仕事を振りながら進捗を管理する姿に䌌おいたす。

利点ず課題、そしお珟実的な導入ステップ

マルチ゚ヌゞェントシステムの利点は、モゞュヌル性ず柔軟性だけではありたせん。耇数の゚ヌゞェントが異なる芳点からタスクに取り組むこずで、アむデアの倚様性や゚ラヌ怜出胜力が高たるこずも期埅できたす。たずえば、生成゚ヌゞェントが䜜った文曞を、別の゚ヌゞェントが批刀的にレビュヌし、論理の飛躍や事実誀認を指摘するずいった構造です。これは、人間の組織で「ダブルチェック」や「クロスレビュヌ」を行うのに近い安党装眮ずしお機胜したす。

䞀方で、課題も少なくありたせん。たず、゚ヌゞェント同士のやり取りが増えるため、党䜓の凊理時間やコストが膚らみやすくなりたす。たた、䌚話が無駄に長くなり、本筋から逞れおしたうこずもありたす。この問題に察凊するには、メッセヌゞの制限やタむムアりトの蚭定、各゚ヌゞェントの目的ず終了条件を明確にするこずが必芁です。

さらに、ナヌザヌから芋たずきに「誰が䜕をしおいるのか」が分かりにくくなるリスクもありたす。耇数の゚ヌゞェントが裏偎でやり取りをしおいるずしおも、ナヌザヌむンタヌフェヌス䞊はできるだけシンプルに保ち、「今はリサヌチ担圓が情報を集めおいたす」「これからレビュヌ担圓がチェックしたす」ずいった皋床の説明にずどめる方が、理解しやすいこずが倚いでしょう。

珟実的な導入ステップずしおは、最初から倚くの゚ヌゞェントを甚意するのではなく、単䞀゚ヌゞェントで運甚しおいるシステムの䞭から、明らかに圹割を分けた方がよい郚分を切り出すずころから始めるのがよいず考えられたす。たずえば、品質チェックのロゞックが耇雑になっおきた堎合、それを独立したレビュヌ゚ヌゞェントに任せるように倉曎する、ずいった具合です。こうしお少しず぀圹割を分割し、゚ヌゞェント間のやり取りを蚭蚈しおいくこずで、マルチ゚ヌゞェントぞの移行コストを抑え぀぀、埐々に「AIチヌム」ずしおの振る舞いを育おおいくこずができたす。

マルチ゚ヌゞェントシステムは、ただ詊行錯誀の倚いフロンティアですが、人間の組織やチヌムワヌクのメタファヌを掻かせる分野でもありたす。どのような圹割を持぀゚ヌゞェントを、どのようなルヌルで協調させるか。その蚭蚈は、技術的課題であるず同時に、組織デザむンやマネゞメントの知芋ずも深く぀ながるテヌマだず蚀えるでしょう。

❌