Normal view

There are new articles available, click to refresh the page.
Today — 19 December 2025CIO

The rise of invisible AI will redefine CX

19 December 2025 at 09:15

In the next few years, “invisible AI” will fundamentally change how enterprises approach customer experience (CX). The concept is simple yet transformative: the most effective AI will be the least visible — seamlessly integrated into workflows, guiding customer service teams, supporting managers, and surfacing insights in real-time without adding complexity. Workforce Engagement Management (WEM) platforms represent one early example of this shift toward intelligence that empowers rather than interrupts.

At SuccessKPI, we believe invisible AI represents the next great leap in customer experience — one that places humans back at the center of technology. While over 80% of AI projects industrywide fail to meet objectives, invisible AI succeeds because it starts with the end in mind: measurable business outcomes such as ROI, compliance, customer satisfaction and agent empowerment.

This is not about deploying AI for AI’s sake. It is about achieving real results for humans — quietly, efficiently and continuously.

The evolution of engagement: From tools to intelligence

Traditional CX platforms rely on dashboards, manual workflows and sampling-based analytics. As customer expectations, regulatory pressures and hybrid work models grow more complex, these systems can become bottlenecks instead of enablers. Leaders need deeper insights and more automation, but must avoid adding friction for agents or managers.

Invisible AI solves this problem by operating behind the scenes — listening, learning and supporting without requiring users to learn new tools. It continuously monitors calls, chats and interactions to evaluate sentiment, compliance and intent, delivering timely nudges, risk alerts and guidance exactly when needed.

Agents stay focused on customers. Managers stay focused on strategy. AI quietly handles the heavy lifting.

Why cloud-based AI wins over DIY AI

A critical enabler of invisible AI is the shift to cloud-native intelligence. Enterprises and customer service organizations increasingly recognize that:

  • Cloud-based AI delivers faster innovation because models improve continuously without internal rebuilds.
  • It scales instantly to support peaks in interaction volume without costly hardware or engineering.
  • It dramatically reduces total cost of ownership, eliminating the need to hire specialized AI talent, manage infrastructure or retrain models manually.
  • Security, compliance and resilience benefit from the collective investment of leading cloud providers and AI platforms.

Building AI infrastructure in-house may seem appealing, but the pace of model evolution means internal systems become outdated almost immediately. Invisible AI requires constant learning, tuning and deployment — a cycle only cloud-based platforms can realistically sustain at enterprise scale.

From reactive to predictive: Quality elevated at scale

Historically, quality processes relied on random sampling and slow feedback cycles. Invisible AI changes this entirely. Every interaction can be analyzed automatically, scored for compliance and sentiment and grouped by themes or emerging issues.

Leaders gain real-time intelligence about risks, billing issues, product failures or shifts in customer tone — long before they escalate. Agents receive immediate, supportive guidance instead of waiting for quarterly reviews. Quality improves while reducing bias, workload and manual analysis.

Invisible AI thrives when organizations define their desired outcomes from the start, such as:

  • Improving customer satisfaction and loyalty
  • Ensuring compliance and reducing risk
  • Enhancing agent performance and retention
  • Driving measurable ROI through efficiency gains

The technology then supports these goals organically, upgrading itself over time without requiring users to adapt or retrain.

This mindset — building AI results, not AI tools — is what separates successful implementations from the 80% that fail.

Automation paradoxically makes workplaces more human. By removing repetitive tasks and surfacing contextual insights, invisible AI allows people to do what they do best: empathize, problem-solve and build trust.

Imagine an agent who automatically sees emotional signals, historical interactions and account insights without searching or switching screens. Imagine a supervisor alerted instantly when sentiment dips so they can intervene proactively. That’s invisible AI in action.

One hallmark of invisible AI is continuous, silent improvement. Models grow more accurate, compliance frameworks update automatically and sentiment detection adapts to new languages and cultural nuances — all without retraining sessions or system downtime.

For CIOs and technology leaders, this means stability paired with continuous progress — a rare combination in enterprise transformation.

The Future: AI that disappears into great experiences

By 2026, invisible AI will be indispensable to customer experience operations. Early adopters will enjoy stronger outcomes, more efficient operations and more empowered employees.

As AI grows more advanced, it will also grow less visible. The future is technology that blends so naturally into workflows that users barely realize it’s there — they simply notice that everything works better.

That is the true promise of invisible AI: not to replace humans, but to elevate them.

The organizations that lead the future won’t be the ones promoting their AI. They’ll be the ones whose customers and employees hardly notice it at all — only that their experiences feel effortless.

And that’s how we’ll know the future has arrived.

This article is published as part of the Foundry Expert Contributor Network.
Want to join?

Amazon’s new AI team will report to CEO

19 December 2025 at 09:10

Amazon has set up a new in-house AI organization reporting direct to the CEO, responsible for its Nova range of AI models, silicon development (the Graviton, Trainium, and Nitro chips) and the emerging development of quantum computing. The new move will bring AI and advanced technology research into the heart of Amazon itself, where previously it was part of Amazon Web Services.

The new organization will be headed by Amazon veteran Peter DeSantis, who launched the company’s cloud storage service EC2 and is the current leader of AWS’s Utility Computing Services.

Amazon CEO Andy Jassy announced the change in a letter to staff, saying DeSantis had a track record of solving problems at the edge of what’s technically possible. “With our Nova 2 models just launched at re:Invent, our custom silicon growing rapidly, and the advantages of optimizing across models, chips, and cloud software and infrastructure, we wanted to free Peter up to focus his energy, invention cycles, and leadership on these new areas.”

DeSantis will report directly to Jassy, rather than AWS CEO Matt Garman, stressing the importance of AI to the company.

DeSantis has some history here. Last year, he took to the stage at re:Invent to announce the launch of a 10p10u, an enhanced network developed to handle the expected increase in AI-generated traffic.

The more things change…

The introduction of the new division within Amazon itself is a major shift in philosophy. Sanchit Vir Gogia, Chief Analyst, Greyhound Research said that the move was not a vanity reshuffle. “Amazon is admitting that AI is now inseparable from infrastructure economics, infrastructure control, and infrastructure power. The unit of decision shifts from ‘Which service do I try?’ to ‘Which stack do I align with?’ Within this world: framing, cloud and AI stop being parallel tracks in your organisation but merge into a single platform governance problem.”

While the reorganization has big consequences within Amazon, customers for its cloud computing services are unlikely to see much difference, at least for now.

… the more they stay the same

Brian Jackson, Research Director at Info-Tech, thinks that, in the immediate term, there will be no difference in the way that companies buy from Amazon.  “I don’t see this affecting the way that customers engage or use their AWS services. AWS has its AI products clearly defined now, with agents that help developers produce code, Bedrock to develop applications that leverage a range of LLM options, and then there is SageMaker and Nova Forge for different aspects of AI training. Those products will remain the same,” he said.

The development of Nova 2 could provide an interesting option for organizations. “Amazon positions the Nova family of LLMs as providing outputs that are almost as good as the very best models at a fraction of the cost,” said Jackson. “If you’re looking for an LLM to solve a specific business problem, Amazon Nova is an option you’ll consider and test to see if its outputs are going to be just as effective for your use case as GPT 5.2, and deliver it at a much lower cost per token.”

Justin Tung, Senior Principal Analyst at Gartner, agrees that the Amazon move will offer its customers a genuinely new option.  “While organizations seeking the most advanced, high-performance models may not view Nova 2 as the leading option, it provides a compelling balance of speed, accuracy and, importantly, cost. For many enterprise use cases, the ideal model is not necessarily the most powerful, but the one that delivers reliable performance at a more accessible price point – and in that regard, Nova 2 remains a strong and practical choice.”

Quantum computing on the horizon

Perhaps the more interesting move is the inclusion of the nascent quantum computing development within the new organization. Eric Kessler, general manager of AWS Braket, speaking at re:Invent, this year, said that Amazon estimates that fault-tolerant quantum computing will be possible for scientific use cases by the end of the decade.

“Putting quantum computing in this new division makes sense because Amazon views AI and quantum computing as having a mutually beneficial relationship. That is, AI will be used to advance quantum computer design, and quantum computing will be used to advance AI, by acting as data samplers to generate high-quality training data,” Jackson said.

Greyhound’s Gogia said that by pairing quantum with AI and silicon and bringing the whole division within Amazon itself, the company is signalling that specialized compute will increasingly be consumed as managed infrastructure with integrated services, rather than as stand-alone exotic experiments. “If CIOs treat quantum as a branding exercise without governance, they will burn credibility and budget. If they treat it as disciplined R&D with milestones, they build readiness at low cost.”

He added that “Quantum is not a mainstream production lever yet, but it is strategically rational for Amazon to keep it close to its AI and silicon agenda, because when quantum does become useful for narrow domains, the organizations that will move first are the ones that treated it like a governed capability.”

The integration of these advanced services under the general Amazon umbrella is a move that stresses how important AI is going to be to organizations in the future. Amazon recognizes that it’s not just an aspect of IT services but a crucial element in every aspect of purchasing.

Tecnología para navegar la complejidad del mercado de los juguetes

19 December 2025 at 05:43

Diciembre es un mes intenso para la industria del juguete, el momento cumbre de la campaña de Navidad. La elevada demanda lo convierte en fundamental para las cuentas de resultados: según las proyecciones de la Asociación Española de Fabricantes de Juguetes (AEFJ), en ella se concentrarán el 60% de las ventas anuales.

Sea en Navidad o fuera de ella, la industria del juguete es un potente actor económico. A nivel global, y según datos de 2023 de Circana para la International Council of Toy Industries, mueve unas ventas por valor de 108.700 millones de dólares. Las cuentas de Euromonitor (de 2024 y que incluyen en el total también a los videojuegos) hablan ya de 279.000 millones de dólares. En España, la AEFJ prevé para este año una subida del 2,5% de la facturación, con un gasto medio por niño en juguetes en la campaña de Navidad de 195 euros.

La lista de los juguetes más deseados incluye toda clase de productos. El ranking anual que elabora cada Navidad Amazon lista juegos de construcción, robots, muñecas, cocinitas y clásicos como juegos de cartas. Este amplio abanico evidencia otra de las cuestiones que transpiran los análisis del sector, el de que este es un mercado complejo, que debe atender a muchas variables. La industria del juguete no solo tiene a niños y niñas como clientes finales (y todos los familiares que se encargan de hacer realmente esa compra), sino también a personas adultas que compran para ellas mismas. Es la emergente categoría de los kidults, “un segmento clave de crecimiento”, como concluye Euromonitor. De hecho, muchos juguetes se compran por nostalgia, confort emocional, conexiones sociales o hasta escapismo, según esta firma de análisis.

A la variedad del propio público objetivo del juego y de sus razones para la compra se suman la regulación, las crecientes expectativas sobre el alcance y valores de los juguetes o los retos marcados por las tendencias cambiantes de mercado. Jugar puede parecer muy sencillo, pero cumplir con las expectativas no lo es tanto. “La industria del juguete evoluciona continuamente, integrando nuevas narrativas y valores sin renunciar a la esencia del juego”, asegura Marta Salmón, presidenta de la AEFJ, al hilo de la presentación de previsiones de la asociación. “Esta capacidad de renovación constante es clave para mantener un mercado dinámico y competitivo”, suma.

Ante un mercado complejo y variado, se necesita innovación y tecnología.

Tecnología para innovar y seguir el ritmo

“El sector del juguete siempre ha sido en cierto modo pionero a la hora de adoptar algunas tecnologías e incorporarlas en los productos”, explica a CIO ESPAÑA Joaquín Vilaplana, director de innovación y sostenibilidad en AIJU Instituto Tecnológico de Productos Infantiles y Ocio, situado en el epicentro juguetero español, el Valle del Juguete. “Es un sector que es atrevido a la hora de innovar en el producto”, añade. Esto se traduce no solo en el lanzamiento de juguetes de base tecnológica (que deben, eso sí, mantener unos precios lo suficientemente competitivos como para ser atractivos en un mercado sensible al coste: “tiene que ser bueno, bonito y barato”), sino también en el uso de herramientas tecnológicas en su día a día.

El sector “avanza a la industria 4.0”, incorporando soluciones para monitorizar y planificar la producción, sistemas de control y demás herramientas para una fabricación optimizada y eficiente. “Dependiendo del tamaño de las empresas, existe una continua actualización en las metodologías”, indica Vilaplana. La tecnología no está solo “en el producto en sí, sino también en la fase previa de diseño y fabricación”. El sector armoniza el uso de “formas tradicionales de fabricar y producir” con la incorporación de nuevas herramientas punteras.

El análisis de datos ayuda a comprender las tendencias y afinar el lanzamiento de productos (que, aunque hagan su agosto en diciembre, ya deben pasar por las ferias sectoriales de inicio del año), así como mejorar la planificación de fabricación. “Es muy importante tener una capacidad de previsión buena, porque si no es imposible llegar a todo”, señala el experto, explicando que cada vez es más complicado gestionar el riesgo y que los modelos de compromisos de compras en ferias está cambiando. “Te confirman los pedidos cada vez más tarde y la capacidad de reacción es cada vez más ajustada”, indica.

Igualmente, la propia naturaleza del mercado del juguete hace más clave a la tecnología. Al ser un sector con una estacionalidad muy clara, se necesita ser capaces de gestionar ese pico sin que nada falle. Las herramientas de gestión logística son fundamentales. Al tiempo, el boom de internet también ha cambiado el estado de las cosas: el sector ha tenido que adaptarse a la venta online. “La empresa tiene que ser capaz de suministrar o entregar en plazos muy ajustados y estrechos”, suma el experto.

Joaquín Vilaplana, director de innovación y sostenibilidad en AIJU Instituto Tecnológico de Productos Infantiles y Ocio


AJIU

Juguetes ante los retos del siglo XXI

La tecnología también está ayudando a que los juguetes naveguen los retos del siglo XXI, como ser más sostenibles o afrontar nuevas materias primas, al tiempo que ha abierto nuevas oportunidades, como el de hacerlos potencialmente más inclusivos.

“Hay infinidad de familias de productos que, siendo clásicos, tienen un potencial a la hora de integrar nuevas tecnologías o conseguir ese enfoque de inclusividad”, apunta Vilaplana. En su centro tecnológico, hacen “evaluaciones de usabilidad y jugabilidad del producto” que ayudan a comprender cómo funcionan los juguetes con cada grupo poblacional y a abrir nuevas características que hagan del producto algo “más inclusivo”, ya que “puede ser utilizado por públicos con ciertas limitaciones”. Al hacerlo, también ganan en valor educativo sobre la diversidad. “Un juguete es un elemento educativo”, recuerda, que puede “potenciar determinadas capacidades y desarrollar determinadas habilidades y actitudes”.

Otro de los grandes retos es el uso de materias primas. Algunas estimaciones señalan que el 90% de los juguetes se siguen haciendo a nivel global con plástico, lo que convierte a la juguetera en una de las industrias más intensas en el uso de este material del planeta. Muchas compañías han lanzado programas de I+D para encontrar alternativas mucho más responsables o más fácilmente reciclables. Abandonar por completo el plástico no es del todo sencillo. Ahí está el caso de Lego, que en 2023 dejó de usar plástico reciclado de botellas cuando descubrió que no reducía su huella de carbono (la compañía, aun así, insistía entonces en que seguían comprometidos con la sostenibilidad y buscando formas alternativas). Desde la industria del juguete recuerdan, con todo, que el plástico de los juguetes se puede reciclar, aunque no sea sencillo porque no hay tanta escala como puede haber en, por ejemplo, el plástico de los envases.

Y, finalmente, los juguetes deben enfrentarse también a las diferentes regulaciones, algo para lo que la tecnología está muy presente.  “Un requisito que acabará afectando es el pasaporte digital del producto”, explica Vilaplana. Es un reto que tocará a todos los sectores manufactureros, pero que el juguete tendrá también que abordar con sus propias peculiaridades.

niño con un juguete de gafas 3D

AIJU

La era de la IA

Sin duda, otro de los grandes retos a los que tendrá que enfrentarse la industria del juguete es el de la inteligencia artificial, que está también llegando ya a sus productos finales. Más allá de lo que pueda suponer como apoyo en la fabricación o comercialización, la IA se podría asentar como un complejo elemento más de la propia identidad del juguete, una pieza más del juego.  Compañías de nuevo cuño, como Curio, están integrando IA directamente en los juguetes, creando muñecos que son al tiempo chatbots. “Combinamos tecnología, seguridad e imaginación, creando un mundo de juego en el que la ciencia y las historias toman vida”. Así es como se presenta esta empresa.

A las startups que experimentan con productos potenciales se suman los movimientos de los grandes gigantes. Este mismo diciembre, Disney anunció un acuerdo estratégico con Open AI. El gran titular es que Sora podrá generar vídeos cortos (no comerciales, puesto que son para fans) con los personajes del universo de la multinacional. Sin embargo, el potencial podría ir más allá, puesto que en la nota de prensa aseguran que se integrará potencialmente en más áreas. Más claro es el movimiento de Mattel, que cerró su propio acuerdo con Open AI, en este caso a principios de verano. “Cada uno de nuestros productos y experiencias está diseñado para inspirar a los fans, entretener a las audiencias y enriquecer la vida mediante el juego. La IA tiene el poder de expandir esa misión y ampliar el alcance de nuestras marcas en nuevas y emocionantes vías”, señalaba entonces Josh Silverman, el máximo responsable de franquicias de Mattel. El comunicado ya dejaba claro que se avecinaban “productos alimentados por IA”.

Aun así, este movimiento sectorial no está exento de críticas y de dudas. Al fin y al cabo, la IA ya protagoniza estos debates fuera del mundo de los juguetes. Es más que esperable que lo haga también dentro de ellos. Como muestra una prueba de The Guardian con uno de estos muñecos IA, se cuestiona el impacto en privacidad, relaciones sociales y hasta salud mental. Se teme que abra lo que ya se ha bautizado como el empathy gap (la brecha de la empatía), perdiendo de vista que aquello son juguetes y no personas, o que se genere una nueva brecha digital entre las familias capaces de navegar este nuevo contexto y las que no. En resumidas cuentas, los juguetes deben enfrentarse a los mismos retos que esta tecnología encuentra en otros sectores.

La soberanía digital, clave para acelerar el uso seguro de la IA generativa

19 December 2025 at 05:14

¿Cómo adaptarse a los cambios que supone la irrupción de la inteligencia artificial generativa en el seno de las empresas? ¿Qué riesgos comporta en el día a día de las organizaciones? Para muchas de ellas, la IA generativa es “una ola” que nos está “pasando por encima”, a la que no es fácil adaptarse porque muchas veces llega “sin comprarla” y sin que desde la dirección se haya establecido un proceso claro de adaptación a los procesos productivos. De todo ello se habló en un almuerzo de trabajo organizado el pasado 11 de noviembre por CIO ESPAÑA con la colaboración de Red Hat y Accenture, que fue moderado por Fernando Muñoz, director del CIO Executive España y en el que responsables tecnológicos de distintas organizaciones compartieron su punto de vista sobre estas herramientas y sobre el concepto de soberanía digital, cada vez más relevante para las compañías.

Manuel Tarrasa Sánchez, CIO y CTO de TuringDream, apuntó tres grandes retos para la adopción de la inteligencia artificial generativa. “El primero —apuntó— viene desde arriba, porque el consejo de Administración ejerce presión para que se use la IA”. “El problema es que las empresas no encuentran gente que sea capaz de aunar conocimientos de IA y de negocio”, explicó. La solución a su juicio pasa por habilitar centros de competencia para formar los profesionales adecuados. “El segundo problema —prosiguió— es que la IA también llega desde abajo. Los empleados se dan cuenta de que puede ser un acelerador de su carrera y, aunque las empresas cierren el acceso a ChatGPT, los trabajadores lo llevan en el móvil”.   

El tercer problema, señaló, viene de las alucinaciones. Entre el 10 y el 30% de los modelos las sufre, aunque esto es algo que, en su opinión, se va a poder solucionar con las IA agentivas. El experto también apuntó otros de los grandes riesgos de instalar proyectos piloto, que la persona que lo haya instalado abandone la organización. “El mayor riesgo está en garantizar la continuidad del servicio”, remarcó.

foto evento red hat accenture dic 2025

Garpress | Foundry

Emilio González, jefe de sistemas del Ayuntamiento de Alcorcón, advirtió de los peligros que entraña la ‘shadow AI’, el uso no autorizado de herramientas de inteligencia artificial dentro de una organización sin la supervisión del departamento de TI. “Tenemos que dar formación a personas para que no suban a la IA documentos confidenciales”, aseguró. “Con la IA somos superfuncionarios, pero el apartado de protección de datos persiste como el principal reto”, dijo González, quien apuntó también otro desafío: la rápida obsolescencia de las inversiones en IA.

De la protección de datos habló también Raquel Pardiñas, gerente de suministro y proveedores de TI de Atradius Crédito y Caución, quien señaló que, aunque la IA generativa sirve para ganar tiempo en tareas administrativas, muchas veces sus usuarios desconocen si están incumpliendo la Ley de Protección de Datos. “Es el principal desafío”, enfatizó.

Ana Arredondo Macua, CIO de la Oficina Española de Patentes y Marcas, describió la situación la que se enfrenta una institución como la suya. “Un examinador de patentes puede tardar 18 meses en conceder una. La IA es muy útil para reducir este tiempo, pero el examinador tiene miedo a perder su trabajo, a no ser relevante”, relató. También habló de la necesidad de interoperabilidad, algo clave en una institución que comparte información y patentes con otros estados. “La fecha de una patente es crucial, por lo que el intercambio de información es imprescindible”, dijo tras señalar que la IA aporta una base de información para ser más eficiente.

Fernando Muñoz, director del CIO Executive de Foundry en España

Fernando Muñoz, director del CIO Executive de Foundry en España.

Garpress | Foundry

Propuesta de valor, no de riesgo

Sobre todos estos desafíos, Julio Sánchez Miranda, líder de la práctica de Red Hat en Accenture para EMEA, fue contundente. “La inteligencia artificial se tiene que enfocar a valor, no a riesgo. Eso va a cambiar la narrativa”, dijo. “Hay que establecer claramente el objetivo, saber lo que quiero. Es una tecnología incipiente que si no pruebas y testeas no terminas de conocer”, añadió Mar Santos, directora de ventas corporativas de Red Hat. 

Julio Sánchez introdujo también uno de los principales temas del debate: la soberanía digital. Sobre este punto, recordó que el 80% de los modelos funcionales de la IAG son americanos, un 15% chinos y solo un 5% europeos. “El concepto de soberanía es control, y hoy es un tema geopolítico”, remarcó. En su opinión, hay que tener claros los términos de contrato en los que se usa la IA y conocer qué empresas y cómo garantizan la protección de los datos. “Si usas datos personales de tus clientes en plataformas como ChatGPT puedes tener un problema”, advirtió.

En esa misma línea se expresó Nilley Gómez Rodíguez, líder de Data & AI de Reale Seguros, quien explicó cómo su compañía ha cortado el acceso a ChatGPT para asegurar con un modelo propio de IA generativa el cumplimiento normativo. “Creamos un programa que pueda ser usado para el negocio, ofreciendo formación a los usuarios”, dijo tras subrayar que el principal desafío en los próximos meses será la generalización del uso de la IA agentiva. “Para el usuario tiene que ser transparente”, aseveró.

Mar Santos, directora de ventas corporativas de Red Hat

Mar Santos, directora de ventas corporativas de Red Hat.

Garpress | Foundry

Desde la Universidad Complutense de Madrid, José Arbues Bedia, director del Centro de Inteligencia Institucional, explicó cómo su institución trabaja en una triple vertiente, empleando IA para la docencia, la gestión y el análisis de datos. No obstante, apuntó su desconfianza en un modelo que, a su juicio, aún no vale por sí solo. “La IA generativa trabaja con modelos literales y cuenta muchas mentiras”, dijo.

“Estoy trabajando en no trabajar, pero aún es demasiado pronto para ello”, dijo tras subrayar que “la única palanca de cambio en la Administración es la transparencia”. En su opinión, es demasiado arriesgado tener una IA propia para la universidad. “Con SAP sí puedo garantizar unos resultados, pero no con la inteligencia artificial”, dijo.

Para Carlos Maza, director de Digitalización y Tecnologías de la Información del Tribunal de Cuentas, los proyectos de IA los deberían pagar los departamentos de Recursos Humanos y Formación. “Ahora es el momento de conocer y aprender”, dijo, no sin antes señalar que la IA “está entrando sin comprarla” a través de muchas herramientas que ofrecen servicios incluidos en sus suscripciones.

Soberanía digital: el papel de Europa

Los asistentes analizaron también el lugar de Europa en un escenario donde la soberanía digital se ha convertido hoy en una prioridad política. “Determinar dónde reside el dato nos puede parecer una pregunta cómica, pero no lo es para el Derecho que nos regula”, dijo Carlos Maza, quien apuntó que, para una institución como el Tribunal de Cuentas, que maneja datos de terceros, la confidencialidad de los mismos es clave para el funcionamiento.

“Europa va lenta en IA. El enfoque será el correcto, pero no es competitivo, y sin recursos no estamos al nivel de otras regiones”, dijo Emilio González. Para Manuel Tarrasa, los principales problemas residen en la velocidad y la escala, que hacen que la distancia se agrande día a día. Pierre Pita, el director de ventas de TI de Atradius Crédito y Caución, apuntó una línea de actuación. “La legislación DORA nos obligó a hacer mucho trabajo, pero nos da una capa extra de seguridad”, dijo.

Julio Sánchez Miranda, líder de la práctica de Red Hat en Accenture para EMEA

Garpress | Foundry

Julio Sánchez explicó que Red Hat trabaja en un entorno de ‘confidential computing’, una tecnología que protege los datos en uso mediante el procesamiento en entornos seguros. “Es relevante gobernar los modelos en entornos controlados”, enfatizó. En esta línea, citó un estudio según el cual al menos un tercio de las cargas de IA deberían ser ejecutadas en entornos soberanos para proporcionar valor a la organización.

“En el futuro —concluyó— apostamos por crear modelos verticales customizables y pequeños que ayuden a optimizar las infraestructuras y a reducir costes”. “La IA ha venido para quedarse. Es un reto para todos, pero Red Hat está en el camino correcto para ayudar a usar la IA de forma controlada en riesgos y costes”, añadió Mar Santos.

How CIOs can win tech investments from CFOs and boards

19 December 2025 at 05:10

When I transitioned from the CFO’s desk to a leadership coach and as a director on corporate boards, I observed a truth: that securing approval for technology investment isn’t just an IT conversation. But it’s a business conversation.

It’s about trust, alignment, language and, most importantly, shared purpose. For every CIO reading this article, note that the money you seek is not simply a line item in a budget, but it’s the future your business is seeking to build. Getting it backed by your finance team and endorsed by the Board will enable smooth implementation for you as the CIO. Here’s how you can go about it.

Understand your CFO’s perspective

Early in my corporate career, I remember a tech leader walking into my office with a slide deck full of diagrams and acronyms. I didn’t reject the idea because it lacked merit, but because I couldn’t see the business outcome.

As CFO, what I cared about were three things, which were the return on investment, risk management and cash impact. If the technology didn’t speak those languages, it would struggle for approval.

According to research, the companies where the CIO-CFO relationship is strong are far more likely to secure digital funding.

Action: Before submitting your request, ask: how does this project help shape the margin, growth, cost avoidance or lead to increased productivity? Include a cost-benefit analysis if required. Let the financial pulse of the company be at the centre of your case.

Align the tech initiative with business strategy

As a Board Director, I often ask: “How does this tech initiative support our strategic objective?” Whether it was entering a new market, improving customer experience or managing a cost base, if the technology didn’t map to one of those, the Board would push back.  

As highlighted in industry research, the shift from IT function to enterprise strategy means the CIO and CFO must operate almost as co-pilots on the business growth journey.

Action: Create a clear line of sight between the initiative and your company’s strategic growth plan. Highlight with phrases such as “supports strategic priority A,” “enables 10% faster time-to-market,” “reduces cost by X%.”

Build a compelling business case

In one of my Board roles, the tech leader, I recall, had a clear ask. He presented the Board with a clear timeline, with an ROI and the payback period. It got approved. I’ve since coached CIOs to think in those terms: the ask must be frameable in financial language, such as total cost of ownership (TCO), internal rate of return (IRR), payback period, etc., not just technical merit.

According to TechTarget, CIOs working under CFO oversight need business cases that translate into straightforward financial justification.

Action: For each major cost you identify, show the offsetting benefit (reduced cost, new revenue, risk mitigation, etc.). Include scenario modelling (base case, optimistic case). Commit to tracking outcomes. If required, educate Board members on the impact of the proposed tech initiative.

Address risk mitigation and compliance

During my tenure as CFO, I learned early that even the most promising tech initiative could stall if the risk side was invisible. Whether it’s regulatory exposure, cybersecurity vulnerability, legacy-system complexity or integration failures, the Board and finance leadership want to see that you’ve “thought about what can go wrong” as much as “what good will come.”

I recall receiving an impersonating email from my CEO seeking urgent transfer of funds when he was away on vacation. I realized it was fishy and got the tech team to check on its source and fix the future risks. Remember that the cost of non-compliance is always higher than the cost of compliance. Better safe than sorry.

A recent study emphasises that IT investments require consistent governance and value measurement to assure the CFO that the initiative isn’t a black box of cost and uncertainty.

Action: In your presentation or business case, include a dedicated section titled “Risk & Mitigation.” Outline the major threats (for example: vendor lock-in, data quality gaps, regulatory change, legacy compatibility, etc.) and map each to a control or plan. Explain how you’ll manage governance, pilot phase, KPIs, etc. Demonstrating governance and transparency converts technology ambition into a credible business investment.

Communicate in a language they understand

I’ve seen tech leaders lose the CFO or Board audience by using IT jargon. Remember, they are not IT experts and may not be familiar with the IT terms. One Board member summarized it well: “Tell me what it does for the business, not just how you’ll build it.”

As one guide on executive-level selling points out, “Selling to the C-suite requires shifting from tactical to strategic language but focusing on business outcomes, not features.”

Action: Practice your presentation with a finance colleague. Replace geek-speak with business outcomes. Use visuals that show the benefits of tech and the outcomes. Speak on growth, speed, risk, cost and not just features.

Use real-life examples and success stories

In my Board role, when I heard a CIO reference successful deployments at peer companies, it built confidence and momentum. Because people believe in success stories more than mere statements. Polish your communication and storytelling skills.

In the broader research, it’s clear that resolving conflicts between CIOs and CFOs often comes through demonstrating tangible results and building trust incrementally.

Action: Include a section in your article/request: “Proof-points”. Show internal wins (if any), even small ones. Or external industry benchmarks. Share data such as “Reduced downtime from X to Y,” “Pilot delivered 5% cost saving.” Then link it to the larger roll-out.

Foster a collaborative approach

My transition from CFO to independent director reinforced one thing: tech leaders who view the CFO and Board as adversaries lose before they begin. The high-performing partnerships I saw treated the CFO as a co-owner of the strategy, not an obstacle.

Gartner found that when CIO and CFO collaborate closely, organizations are much more likely to find funding and meet business outcomes.

Action: Set up a joint governance forum (CIO + CFO + business leaders). Invite and involve the CFO in your tech roadmap discussions. Ask how you can help you with financial visibility, or what metrics they are tracking. Frame yourself as an ally, not just a spender, to get the buy-in from your CFO.

Prepare for the future

Having served as CFO and now as a Board director, one thing is crystal clear: the investments you bring to the table today can either lock you into yesterday’s world or position your organization for tomorrow’s. As a CIO, when you come to finance or the Board with a technology ask, it’s not enough to show “what this project solves now”. You must show “where this project leads us” and showcase the destination of capability, scalability and strategic advantage.

A recent survey by Boston Consulting Group found that many technology investments stall not because they lack potential, but because they don’t integrate into a longer-term roadmap or sequence of value. In other words, you need to articulate how this investment serves today and primes the business for the next wave of change.

Whether it’s AI, cloud scalability, ESG reporting or digital ecosystems, your ask should reflect readiness for tomorrow. Are we future-ready? What actions will make us future-ready? How can we educate our people and integrate AI into our business?

Action: In your proposal, include what each phase will bring about. For example:

  • Phase 1: Deliver core outcome
  • Phase 2: Scale/expand
  • Phase 3: Future-mode

Show how this investment creates optionality; your business is not just solving today’s problem but positioning for the next wave. By mapping out the journey, you reassure the CFO and Board that you’re not just spending, but you’re investing. You’re not just solving a problem, but you’re building a capability that serves the future. And that’s how technology funding shifts from one-off to strategic.

Bringing it all together

If you started this article as a transaction like “I need funding for project X”, shift your mindset to a partnership: “Here’s how we together will drive business growth, manage risk and position the company for the future.”

I’ve been on the finance side. I’ve sat in the boardroom listening to the voices that approve or veto. I know what makes them lean in and what makes them pause. For you, the CIO, this isn’t just about technology. It’s about business momentum, credibility, trust and shared language.

So before you walk into that boardroom or finance review, rehearse your message for the CFO and the Board audience. Use business language. Embed financial metrics. Build governance and risk clarity. Show you’re working with them, not against. And finally, tell a story. One that begins with the business opportunity, weaves through the tech solution and ends with measurable value.

That’s when technology funding moves from permission to partnership. And that’s when you, as CIO, step into the role of a true strategic business enabler.

This article is published as part of the Foundry Expert Contributor Network.
Want to join?

CIOs will underestimate AI infrastructure costs by 30%

19 December 2025 at 05:01

Large enterprises will significantly miscalculate their AI infrastructure costs over the next couple of years, prompting more CIOs to expand the scope of their FinOps teams, IDC predicts.

Enterprise AI users are headed for an “AI infrastructure reckoning,” as CIOs and finance leaders realize that standard budget forecasting doesn’t work for compute-heavy AI projects, says Jevin Jensen, IDC’s vice president of infrastructure and operations research. Global 1,000 companies will underestimate their AI infrastructure costs by 30% through 2027, IDC predicts.

The cost of ramping up AI projects is fundamentally different than launching a new ERP solution and other IT systems that enterprises have been deploying for decades, Jensen says. Calculating the cost of GPUs, inference, networking, and tokens can be much more complicated than planning a budget for a more traditional IT system, and CIOs also need to consider security, governance, and employee training costs.

“AI is expensive, unpredictable, dramatically different than traditional IT projects, and growing faster than most budgets can track,” he writes in a blog post. “AI-enabled applications are often resource-intensive, coupled with opaque consumption models, and have outpaced the traditional IT budgeting playbook.”

IT leaders often underestimate the pricing complexity associated with scaling AI, Jensen writes.

From the blog post: “Models that double in size can consume 10 times the compute. Inference workloads run continuously, consuming GPU cycles long after training ends. What once looked like a contained line item now behaves like a living organism — growing, adapting, and draining resources unpredictably.”

Point of no return

As CIOs struggle to estimate AI costs, a spending frenzy by large AI vendors such as OpenAI and Anthropic adds pressure to recover the investments, some critics say. In a recent appearance on the Decoder podcast, IBM CEO Arvind Krishna warned about the cost of building 100 gigawatts of data center capacity, at a price of about $8 trillion, as the projected fuel needed to power large vendors’ AI ambitions.

“There’s no way you’re going to get a return on that, in my view, because $8 trillion of capex means you need roughly $800 billion of profit just to pay for the interest,” Krishna says. 

The math doesn’t add up, adds Barry Baker, COO of IBM Infrastructure and general manager of IBM Systems. In the short term, a single gigawatt data center will likely cost more than $75 billion, he says, echoing the concerns of his boss.

“Much of this investment is occurring in parallel resulting in the demand outstripping the supply and dramatically raising prices for every element of the cost equation — from people, to concrete, to the silicon,” Baker says.

At the same time, the self-life of the hardware at AI data centers is limited, he adds. “Adding to these staggering figures is the reality that the actual compute will need to be replaced every few years, creating an ongoing reinvestment cycle that many organizations have failed to fully account for in their long-term planning,” Baker says.

IDC’s Jensen agrees that massive AI spending by vendors and hyperscalers, such as AWS, Microsoft Azure, and Google Cloud, may keep prices high in the near term. “They’re trying to recoup their hundreds of billions of costs by trying to sell it to you for $150 billion,” he says.

Past 2027, however, AI infrastructure prices should fall, he predicts. GPU prices from manufacturers such as Nvidia are likely to come down, and the hyperscalers and AI vendors could eventually cut their prices to up demand in an effort to recover their costs.

Struggling to estimate costs

Beyond the discussion about massive spending on data centers and GPUs, many IT leaders at enterprises consuming AI infrastructure services find it difficult to estimate costs, some experts say.

The IDC prediction about underestimated costs is plausible, if not conservative, says Nik Kale, principal engineer for CX engineering, cloud security, and AI platforms at Cisco. Many organizations project AI infrastructure costs as if they were predictable cloud workloads, he adds.

“Usage expands quickly once models are introduced into the business,” he says. “A workflow designed for a single team often becomes a shared service across the company, which leads to a significant increase in demand that was not captured in the original cost model.”

Systems required to reduce the risks of running AI, including monitoring, drift detection, logging, and validation checks, can consume more computing power than expected, Kale adds.

“In several enterprise environments, these supporting systems have grown to cost as much as, or even more than, the model inference itself,” he says.

The case for FinOps

CIOs need to take precautions when attempting to determine their AI infrastructure costs, experts say, and IDC’s Jensen sees a growing reliance on FinOps solutions, with adoption no longer optional. CIOs will be responsible, with the most common reporting structure of FinOps teams residing in their offices, he notes.

FinOps practices are essential to understanding the best fits for AI projects at specific enterprises, he says. Good FinOps practices will force IT leaders to focus on AI projects with the best ROI probabilities, to understand infrastructure costs, and to adjust as conditions change, he adds.

“AI has moved technology spending from predictable consumption to probabilistic behavior,” he says. “That means financial visibility must become continuous, not periodic.”

IT leaders should focus first on the AI projects that are easy wins, but those are different at every organization, Jensen says; a relatively simple AI project at one enterprise may be impossible at another.

“If you have an idea for a project, but your competitor is losing money on it, let them continue to lose money,” he says. “If it doesn’t work, you have to change things.”

Adopting FinOps practices is a good start, but IT leaders will need to go deeper, says Cisco’s Kale. FinOps traditionally provides a mechanism to track spending and allocate costs, based resources used, but with AI, cost-control teams will need to understand how models perform and identify where their organizations are consuming unnecessarily computing resources, he says.

FinOps teams should use operational analytics that allow the organization to view how money is being spent but also show how workloads operate, he says.

“A viable strategy to limit unnecessary resource usage is to guide teams to utilize the minimum sized models available for each specific task,” he adds. “Frequently, requests can be rerouted to smaller or distilled models without impacting user experiences.”

FinOps teams should also evaluate the design of their AI retrieval systems, validation pipelines, and policy checks to ensure they are operating independently and not more frequently than required, Kale recommends.

CIOs should also pay attention to GPU use, he adds. “Frequently, GPU nodes are operating at a fraction of their total capacity due to poor scheduling and lack of consolidated workload management,” he says. “Improved orchestration and workload placement can result in substantial cost savings.”

Avoid vendor lock-in

IBM’s Baker recommends that organizations adopt hybrid architectures to avoid overcommitting to a single AI infrastructure provider. In addition, CIOs should always pay attention to the computing resources needed to operate their AI workloads, he says.

“Right-sizing AI technology investment offers significant savings opportunities,” he adds. “Not every problem requires the largest model or the fastest response time.”

Organizations should consider quantization and compression techniques and deploy smaller models tuned for specific tasks, rather than general-purpose large language models, Baker says. “Use appropriate compute resources rather than defaulting to the most powerful option available.”

Many organizations can also benefit from strategic patience, he adds. “Avoiding investments in capabilities not yet needed allows organizations to learn from early adopters who absorb the penalties of being too early,” he says.

Connect before attempting to convince: Where CIO influence begins

19 December 2025 at 05:00

In 2023, the UK’s NHS launched the Federated Data Platform, one of Europe’s most ambitious data projects. On paper, the initiative was flawless. It aimed to connect disparate patient data to improve planning, reduce waiting lists, and make more informed decisions.

But the project encountered considerable resistance from both physicians and patient organizations from the start. Authorities spoke of efficiency and better use of resources, yet physician and patient associations heard concerns about surveillance and loss of control. This lack of shared understanding created a divide that’s hampered the entire project.

Although this case belongs to the healthcare sector, a CIO from any other can recognize the situation of a solid initiative that, despite its logic, experiences more friction than expected.

The illusion of speaking the same language

CIOs understand they must speak the language of the business. Many have made the journey of learning how to express themselves in the language of other departments and reduce their jargon. But there are still decisions that take time, create roadblocks, or slowly progress with difficulty. Everyone is supposed to speak the same language, but in reality, the conversation doesn’t flow.

The reason is simpler than it seems. Just because several people use the same words doesn’t mean they’re saying the same thing. Terms like value, urgency, or risk are only universal in appearance. For finance, value might be margin, in commerce it means growth, and for operations, continuity.

However you look at it, such unchecked communication carries the illusion of alignment as well as the risks that come with it.

Underneath the words: the human operating system

Why is there such a disparity in meaning? It’s not a question of vocabulary or precision. Words are only the visible part, but what determines meaning is the reality ascribed to them and how each person receives them. Each area and person operates with an individual framework made up of values, beliefs, and perceptions. Therefore, each stakeholder will filter any communication or proposal through it. So it’s at this level that concerns and priorities are identified, and where not only initiatives are decided, but where the CIO’s role is perceived as either an ally who understands many perspectives, or is someone who speaks from the outside.

Listening: the underutilized tool

In the case of the NHS, the president of the British Medical Association, the main body representing doctors and healthcare professionals in the UK, wrote to the British government stating that neither the public nor the profession have been adequately consulted. This created a trust vacuum that still persists.

At this point, a crucial skill emerges for an initiative to be accepted: the ability to listen. In organizations, speaking can be a form of competition. People speak to reinforce a position, defend a narrative, or secure a place on the agenda. However, few compete to listen, and true influence usually belongs to those who know how.

Listening goes beyond mere courtesy as it’s about understanding context. With listening comes being able to grasp another perspective that might be contentious, or another interpretation of success, or what compromises are willing to be made. Without that understanding, any attempt to speak the language of business relies on assumptions.

And by virtue of listening comes the skillset of being able to better ask informed questions and pursue value-driven practices. Three examples include:

Clarifying keywords

Identify the words that most easily generate different understanding. From there, questions can be posed that force their meaning to be made explicit. It’s about directly asking what a specific word means to the other person or department. These questions reveal what’s important to other areas and prevent the CIO from making assumptions.

Defining what’s meant by success

Aim to agree on what constitutes a good outcome. What KPIs define the success of an initiative? What timeframe should it be measured by? What compromises would be acceptable and which wouldn’t? By making these limits explicit, the CIO establishes a common framework and prevents each party from interpreting success based on their own expectations.

Verifying shared understanding before closing

Use the end of each meeting to check how the message has been received. Ask someone to summarize in their own words what they believe to be the project’s purpose, what benefits they expect, and what risks they foresee. This check allows you to identify interpretations that haven’t been verbalized and to act accordingly.

In reality, these questions are just examples of a broader journey of exploring how words actually land.

From translator to trusted connector

For years, the need for the CIO to act as a translator between technology and business has been essential. This made sense while the challenge was to move beyond purely technical language. Today, it’s about aligning realities, not just words.

The CIO’s true influence won’t depend on simply expanding vocabulary, but rather on their ability to understand and operate within different cultural frameworks. When the business perceives that the CIO understands its pressures, metrics, and fears, it begins to see them as someone on the same team. From this position, alliances are born.

As this shared understanding develops, new questions arise about what the CIO’s narrative should be, and what they should say about technology, the business, and their own role in strengthening partnerships.

AI 기반 웹 개발 플랫폼 업체 러버블, 4800억 원 규모 투자 유치

19 December 2025 at 03:36

이번 투자는 알파벳 산하 투자사 캐피털G(CapitalG)와 멘로벤처스(Menlo Ventures)의 앤솔로지 펀드가 공동으로 주도했으며, 엔비디아의 벤처 투자 조직 엔벤처스, 세일즈포스 벤처스, 데이터브릭스 벤처스, , 아틀라시안 벤처스, 허브스팟 벤처스 등 글로벌 빅테크 및 SaaS 기업도 참여했다.

러버블은 ‘빌더의 시대(The Age of the Builder)’를 비전으로 제시하며, 전문 개발자가 아니더라도 아이디어를 바탕으로 비교적 빠르게 작동하는 소프트웨어를 만들 수 있는 환경을 목표로 하고 있다. 제품 매니저, 마케터, 운영 담당자, 의료 종사자, 예비 창업가 등 다양한 사용자를 ‘빌더’로 정의하고, 이들이 직접 제품을 구현할 수 있도록 돕는 데 초점을 둔다.

의료 현장에서 근무하는 간호사가 환자 여정 시각화 앱을 개발해 실제 청구 시스템에 적용한 사례나, 글로벌 컨설팅 기업이 제안서용 슬라이드를 인터랙티브 프로토타입으로 전환한 사례도 있다. 다만 커서, 피그마, 버셀 등 경쟁 기업들이 유사한 영역에 진출해 있다.

러버블 공식 블로그에 따르면, 러버블 플랫폼에서는 하루 10만 개 이상의 신규 프로젝트가 생성되고 있으며, 출시 첫 해에만 누적 2,500만 개 이상의 프로젝트가 만들어졌다. 최근 6개월간 러버블로 제작된 웹사이트와 애플리케이션 방문 수는 5억 회를 넘었고, 하루 평균 600만 명 이상이 러버블 기반 서비스에 접속하고 있다.

대기업을 중심으로 한 도입 사례도 점차 늘고 있다. 러버블은 독일의 도이치텔레콤과 글로벌 핀테크 기업 클라르나(Klarna)는 러버블을 활용해 기존에 수주 단위로 진행되던 기획·디자인·개발 과정을 며칠 단위로 단축했다고 소개했다. 또한 블로그에 업근된 사례에 따르면, 한 글로벌 ERP 기업은 기존에 4주와 20명이 투입되던 프로젝트를 4일, 4명 규모로 수행했으며, 현재 전체 프론트엔드의 약 75%를 러버블을 통해 생성하고 있다. 또한 글로벌 모빌리티 기업은 UX 콘셉트 테스트 기간을 6주에서 5일로 줄였고, 한 제품 매니저는 수십 분 만에 과거 수개월이 소요되던 프로토타입을 완성했다고 전했다.

캐피털G의 총괄 파트너 라엘라 스터디는 블로그를 통해 “러버블은 기업과 창업가 모두에게 사랑받는 드문 제품”이라며 “포춘 500 기업들의 수요는 소프트웨어 개발 방식이 근본적으로 변화하고 있음을 보여준다”고 평가했다. 멘로벤처스 역시 러버블을 우버, 앤트로픽과 같은 ‘카테고리 빌더’로 규정하며 장기적 성장 가능성에 주목했다.
jihyun.lee@foundryco.com

AI 안전장치가 공격 통로로…‘휴먼 인 더 루프’ 위조 기법 등장

19 December 2025 at 02:48

체크마르크스의 새로운 연구에 따르면, AI 에이전트가 의존하는 휴먼 인 더 루프(Human-in-the-Loop, HITL) 안전장치가 무력화될 수 있으며, 공격자가 이를 악성 코드 실행에 악용할 수 있는 것으로 나타났다.

HITL 대화창은 코드 실행, 파일 수정, 시스템 자원 접근과 같은 민감한 작업을 수행하기 전에 AI 에이전트가 실행하는 안전장치다. 이는 일종의 최종 확인 단계로, 사용자에게 ‘정말 실행해도 되는가’를 묻는 역할을 한다.

체크마르크스 연구진은 이를 ‘라이즈 인 더 루프(Lies-in-the-Loop, LITL)’라고 부르는 HITL 대화창 위조 기법으로 설명했다. 이 방식은 승인 대화창을 검토하는 사용자를 혼란스럽게 만들도록 AI 프롬프트에 악성 지시를 교묘하게 삽입하는 것이 특징이다.

연구 결과는 인간을 검증 과정에 포함시키는 것만으로는 프롬프트 수준의 악용을 차단하기에 충분하지 않다는 점을 보여준다. 사용자가 승인 요청 내용을 신뢰할 수 없게 되는 순간, HITL은 보호 장치 역할을 멈추고 공격 표면으로 바뀌게 된다.

체크마르크스 연구진은 블로그 게시글에서 “라이즈 인 더 루프(LITL) 공격은 승인 대화창에 대해 사용자가 갖는 신뢰를 악용한다”며 “대화창에 표시되는 내용을 조작함으로써 공격자는 안전장치를 무기로 전환하고, 프롬프트가 안전해 보이면 사용자는 의심 없이 이를 승인하게 된다”고 설명했다.

승인 대화창 위조, 감시를 공격 도구로 바꾸다

문제의 근본 원인은 AI 시스템이 사용자에게 확인 대화창을 제시하는 방식에서 비롯된다. HITL 워크플로는 AI 에이전트가 수행하려는 작업을 요약해 보여주고, 사용자가 승인 버튼을 누르기 전에 의심스러운 요소를 발견하길 전제로 설계돼 있다.

체크마르크스는 공격자가 정상적인 승인 대화창을 조작할 수 있음을 입증했다. 예를 들어 정상적으로 보이는 문구로 악성 페이로드를 덧붙이거나, 위험한 명령을 화면에서 보이지 않도록 밀어내고, 실제 실행될 내용과 다른 요약을 생성하도록 프롬프트를 설계하는 방식이다.

특히 터미널 형태의 인터페이스에서는 출력이 길거나 서식이 적용된 경우 이러한 속임수를 알아차리기 쉽지 않다. 체크마르크스에 따르면, 많은 AI 에이전트가 높은 권한으로 동작하는 만큼 한 번의 잘못된 승인만으로도 코드 실행, 운영체제 명령 수행, 파일 시스템 접근, 나아가 추가적인 침해로 직결될 수 있다.

연구진은 패딩이나 잘림(truncation) 기법을 넘어, 확인 화면이 렌더링되는 방식을 악용하는 다른 대화창 위조 기법도 소개했다. 마크다운 렌더링과 레이아웃 동작을 활용해 정상적인 텍스트와 숨겨진 명령을 시각적으로 분리하거나, 사용자에게 보이는 요약이 악성으로 인식되지 않도록 조작하는 방식이다.

연구진은 “공격자가 HITL 대화창에 사용되는 마크다운 문법을 이탈해 가짜 UI를 사용자에게 제시할 수 있다는 점은, 사실상 탐지가 어려운 훨씬 정교한 LITL 공격으로 이어질 수 있다”고 언급했다.

에이전트와 사용자를 위한 방어 대책

체크마르크스는 주로 AI 에이전트 개발자를 대상으로 대응 방안을 제시했다. HITL 대화창을 본질적으로 신뢰할 수 있는 요소로 보지 말고, 조작될 가능성이 있는 구성 요소로 인식해야 한다는 것이다. 이를 위해 대화창 렌더링 방식을 제한하고, 복잡한 UI 서식 사용을 줄이며, 사용자에게 보이는 요약과 실제 실행될 동작을 명확히 분리할 것을 권고했다.

연구진은 또한 사용자가 승인한 작업이 확인 시점에 표시된 내용과 실제로 일치하는지 검증하는 절차가 필요하다고 조언했다.

AI 사용자와 관련해서는, 텍스트 기반 터미널보다 풍부한 UI 환경에서 동작하는 에이전트가 기만적인 행위를 더 쉽게 식별할 수 있다고 분석했다. 연구진은 “예를 들어 VS 코드 확장은 마크다운을 완전하게 렌더링할 수 있는 반면, 터미널은 일반적으로 기본적인 ASCII 문자로만 콘텐츠를 표시한다”고 설명했다.

체크마르크스는 이번 이슈를 앤트로픽과 마이크로소프트(MS)에 공개했으며, 두 기업 모두 해당 보고서를 확인했지만 보안 취약점으로 분류하지는 않았다고 밝혔다. 두 회사는 CSO의 논평 요청에 즉각적인 답변을 내놓지 않았다.
dl-ciokorea@foundryco.com

보안 책임은 큰데 보호는 부족하다···미드사이즈 기업 CISO의 현실

19 December 2025 at 02:43

RSAC(구 RSA 콘퍼런스) 조사에 따르면 중소규모 기업은 글로벌 대기업에 비해 보안 침해 발생 시 CISO를 법적 책임으로부터 보호할 가능성이 현저히 낮은 것으로 나타났다.

전문가들은 이러한 결과가 우려스럽다고 평가했다. 보호 장치가 없을 경우 CISO는 직무 수행 과정에서 내린 의사결정과 관련한 법적·재정적 위험에 직접 노출될 수 있기 때문이다.

RSAC가 실시한 설문조사에서 포춘 1000대 기업 소속 CISO의 대다수인 88%는 회사로부터 법적 면책을 보장받고 있다고 답했다. 반면 직원 수가 500명가량인 기업에 속한 CISO의 경우 이 비율은 53%로 크게 낮아졌다.

두 그룹 모두에서 가장 일반적인 면책 수단은 임원 배상 책임보험(D&O 보험)이었으며, 포춘 1000대 기업 CISO 응답자 가운데 70%는 해당 보험의 적용을 받고 있다고 답했다.

로펌 CM로(CM Law)의 공동 설립자이자 변호사인 켈리 리튼베리 컬핸은 미드사이즈 기업 역시 직면하는 위험은 글로벌 대기업과 유사하다는 점에서, 이번 조사 결과가 보안 리더와 미드사이즈 기업 고용주 모두에게 경고가 된다고 설명했다.

컬핸은 “미드사이즈 기업은 운영의 복잡성과 규모에서 차이가 있을 수 있지만, 랜섬웨어, 데이터 침해, 규제 준수 실패와 같은 사이버보안 위험의 심각성은 동일하다. 면책이 없다면 CISO는 개인적으로 책임져야 하는 상황에 노출되고, 이는 역량 있는 전문가들이 해당 직무를 맡는 것을 주저하게 만드는 요인이 될 수 있다”라고 언급했다.

다시 말해, 미드사이즈 기업은 고용한 최고 보안 책임자를 개인적 책임으로부터 보호하지 못한 결과로 더 큰 위험에 빠질 수 있다는 분석이다.

CISO 대상 D&O 보험 적용 확대                

CISO를 보호하기 위한 안전망은 여러 단계로 구성될 수 있다. 그중 첫 번째는 회사의 면책 조항으로, 일반적으로 정관이나 내규에 포함된 규정을 의미한다.

고용 관행 책임 보험을 제공하는 WIA(World Insurance Associates)의 존 피터슨은 “보통 법무책임자와 이사회 결의를 통해 이뤄지는 회사의 면책 조항 문구는 반드시 적절하게 작성돼야 한다. 이를 통해 CISO가 다른 이사나 임원과 동등한 수준의 면책을 받을 수 있다”라고 설명했다.

CISO를 위한 두 번째 안전망은 보험 중개사를 통해 회사가 가입하는 D&O 책임 보험이다. 피터슨은 회사에 D&O 보험이 마련돼 있더라도, CISO가 해당 보험에서 ‘피보험자’로 명확히 포함돼 있는지 반드시 정책 내용을 직접 확인해야 한다고 조언했다.

IANS 리서치와 아티코서치(Artico Search)가 공동 발표한 최신 CISO 보상 보고서에 따르면, 실제로 D&O 보험에 CISO를 포함하는 사례가 점차 늘고 있는 것으로 나타났다.

2025년 보고서를 기준으로 미국과 캐나다의 CISO 가운데 50% 이상이 해당 보험 혜택을 받고 있다고 응답했으며, 이는 지난해 보고서의 40%보다 증가한 수치다. 또한 CISO 5명 중 1명은 조사나 감사 등을 위해 외부 법률 자문을 이용할 수 있다고 응답했다.

면책을 둘러싼 쟁점

다만 보험 중개사 맥길앤파트너스(McGill and Partners)의 미국 사이버 리더 라이언 그리핀은 D&O 보험과 고용주와의 직접 면책 계약 간 차이가 종종 잘못 이해되고 있다고 지적했다.

그리핀은 “CISO 보호를 위해 가장 중요한 수단은 고용주와 직접 체결한 면책 계약”이라며 “D&O 보험은 회사가 임원을 보호하기 위해 비용을 지급하는 방식이지만, 실제로 그 보호를 법적으로 보장하는 것은 면책 계약”이라고 설명했다.

그는 공식적인 면책 계약이 없는 경우 CISO가 매우 큰 위험에 노출될 수 있다고 경고했다.

그리핀은 “이 경우 CISO는 자신의 법적 방어 비용을 직접 부담해야 하며, 개인 저축이나 개인 종합 보험에 의존할 수밖에 없다. 재정적 손실을 넘어 경력 자체가 심각하게 훼손될 수 있다”라고 말했다.

이어 그는 “설령 최종적으로 기각되더라도 집행 조치에 연루되면 수년간 상장사의 임원으로 활동하지 못하는 제재가 내려질 수 있다. 이는 향후 직업의 선택지를 크게 제한한다”라고 설명했다.

책임 공방

RB-사이버 어슈어런스(RB-Cyber Assurance)의 공동 설립자이자 대표인 켄릭 배그널에 따르면, 이런 상황의 핵심에는 책임 소재 문제가 있다. 보안 사고 발생 시 책임은 거의 항상 ‘보안을 총괄하는 인물’로 인식되는 사람에게 돌아간다는 설명이다.

전 토론토 경찰청 형사 출신인 배그널은 “포춘 500대 기업의 CISO든, 직원 100명 규모 제조업체의 유일한 IT 책임자든 문제가 발생하면 누군가는 그에 대한 책임을 져야 한다”라고 말했다.

배그널은 글로벌 대기업과 미드사이즈 기업의 차이가 노출 수준이 아니라 자원에 있다고 분석했다. 즉, 대기업 CISO는 법무팀이나 위기 대응 PR 자문 등 보호 장치를 활용할 수 있는 경우가 많지만, 미드사이즈 기업에서는 한두 명이 컴플라이언스, IT, 보안 업무를 모두 떠안는 경우가 적지 않다.

이러한 구조는 사고 발생 시 큰 문제로 이어질 수 있다. 배그널은 “회사 규모가 작다는 이유만으로 규제 당국, 고객, 법원이 기대 수준을 낮추지는 않는다”라고 지적했다.

그는 “결과적으로 법적 보호가 없다면 미드사이즈 기업 CISO는 개인적·직업적으로 중대한 위험에 직면하게 된다. 교체 예산이 배정되지 않은 오래된 시스템이나, 업무에 방해가 된다는 이유로 보안 도입을 거부한 사업 부서 등 본인이 통제할 수 없었던 문제의 책임까지 떠안을 수 있다”라고 설명했다.

솔라윈즈 사태의 여전한 여파

지난 2023년 미국 증권거래 위원회(SEC)는 솔라윈즈(SolarWinds)의 CISO 티모시 브라운을 상대로 소송을 제기한 바 있다. 투자자를 오도하고 자사의 사이버 보안 조치를 정확하게 공시하지 않았다는 혐의다. 이 사건은 결코 특수한 사례가 아닐 수 있다. 해당 소송이 최종적으로 기각되면서 CISO가 보안 사고의 책임을 개인적으로 져야 한다는 우려는 어느 정도 완화됐지만, 문제 자체는 여전히 해결되지 않은 상태다.

컬핸은 “사이버보안 리더는 침해 사고와 대응 방식에 대해 점점 더 직접적인 책임을 지고 있다. 선의로 행동했음에도 불구하고, 규제 기관과 주주, 법원이 CISO를 소송 대상에 포함시키는 사례가 늘고 있다”라고 진단했다.

미드사이즈 기업은 법무 및 컴플라이언스 자원이 상대적으로 제한적인 경우가 많아, 면책 보험은 보안 전문가의 잠재적인 안전망으로서 더욱 중요한 의미를 갖는다.

다만 컬핸은 “D&O 보험은 반드시 확보해야 하지만, 항상 모든 위험을 포괄하지는 못한다”라고 언급했다. 기업의 리스크 관리와 보험 자문을 전문으로 하는 전직 법무책임자 출신 변호사인 컬핸은 CISO를 위한 모범 사례 점검 목록을 제시했다.

  • D&O 보험에서 CISO에 대한 보장 범위 확인
  • 사이버 관련 청구의 보장 한도와 제외 조항 검토
  • CISO와 보안 책임자를 위한 추가 면책 계약 검토
  • 사고 대응과 정보 공개 정책이 CISO 면책 조항과 충돌하지 않도록 사전에 정비

거버넌스 구조 전면 재정비 필요

RB-사이버 어슈어런스의 배그널은 CISO 역할이 이를 보호하는 거버넌스 구조보다 훨씬 빠르게 진화해 왔다고 진단했다.

배그널은 “오늘날 보안 리더는 전략가이자 기술 전문가이며, 위기 대응 전문가인 동시에 때로는 희생양 역할까지 요구받고 있다”라며 “특히 미드사이즈 기업이 이러한 현실을 인식하고 이에 걸맞은 법적·계약적 보호 장치를 구축하지 않는 한, 역량 있는 리더들이 CISO 역할을 맡는 데 주저하는 상황은 계속될 것”이라고 설명했다. 그는 “이로 인해 규모와 관계없이 기업이 필요로 하는 기술 및 정보 보안 자문을 충분히 확보하지 못하는 결과로 이어질 수 있다”라고 지적했다.

이어 배그널은 “CISO는 단순히 네트워크를 방어하는 역할에 그치지 않는다. 기업의 평판과 신뢰, 그리고 미래까지 지키는 책임을 맡고 있는 만큼, 그에 상응하는 보호가 반드시 필요하다”라고 강조했다.
dl-ciokorea@foundryco.com

기대와 현실 사이, 2026년 에이전틱 AI는 어디까지 왔나

19 December 2025 at 02:37

에이전틱 AI(Agentic AI)는 지금 ‘모든 것, 모든 곳, 동시에’의 순간을 맞고 있는 듯 보인다. 하지만 과연 그럴까.

소셜미디어의 흐름과 벤더의 공식 발표, 과장된 표현이 난무하는 사고 리더십 영역을 주시하는 IT 실무자라면, 머지않아 전 세계 기업이 AI 에이전트를 중심으로 운영될 것이라고 생각해도 무리는 아니다. 코드 생성부터 콘텐츠 제작까지 다양한 작업을 자동화할 수 있는 소프트웨어인 AI 에이전트가 기업 운영의 핵심이 될 것처럼 비치기 때문이다.

에이전트형 인력(agentic workforce)의 시대가 도래했다는 선언과 함께 IT 지원 업무의 90%를 에이전트가 수행한다는 주장도 나온다. 에이전트 기반 제품으로 수익을 창출하는 진취적인 개발자 사례도 공유된다. 반면, 업계가 과도한 기대를 부추기고 있을 뿐 실제 현장은 그와 거리가 멀다고 지적하는 목소리도 적지 않다.

기술 분야에서 흔히 그렇듯, 현실은 보다 복합적이다. 다만 데이터는 일정 부분 방향을 보여준다. 맥킨지가 조사한 결과에 따르면, 전체 응답 기업의 39%가 AI 에이전트를 실험하고 있다고 답했지만, 단일 비즈니스 기능 내에서라도 AI 에이전트를 본격적으로 확장한 기업은 23%에 그쳤다.

AI 에이전트란 무엇인가

먼저 한 걸음 물러서서 살펴볼 필요가 있다. AI 에이전트란 정확히 무엇이며, 왜 IT 리더들은 이에 주목하고 있는가.

AI 에이전트는 대규모 언어 모델(LLM)과 기타 데이터 소스에서 얻은 맥락 이해와 데이터를 활용해 시스템 환경을 인지하고, 그 과정에서 학습하며, 목표를 달성하기 위해 문제를 추론해 나간다.

에이전트는 다른 에이전트는 물론 다양한 애플리케이션과도 함께 작동한다. 여왕벌을 만족시키기 위해 분주히 움직이는 일벌처럼, 주어진 일을 수행하며 효율적으로 목표를 달성하는 것이 궁극적인 목적이다.

사용자가 맥락을 제공하며 LLM을 원하는 결과로 유도하는 방식과 달리, 에이전트는 사전에 설계된 문제 해결 로직과 학습 데이터에 기반해 스스로 목표 달성 방법을 찾아낸다.

세일즈포스, 워크데이, 마이크로소프트 등은 이미 고객 서비스와 기타 기업 업무용 애플리케이션에 에이전트를 내장하고 있는 대표적인 벤더로 꼽힌다.

서두르면서도 속도를 늦추는 이유

그러나 여러 플랫폼에 걸쳐 작동하는 다중 에이전트 시스템의 도입은 상대적으로 더딘 흐름을 보이고 있다. 에이전트를 중심으로 기업 운영을 시도했다가 실패한 사례, 또는 에이전트가 치명적인 기술적 오류를 일으킨 사례가 잇따르면서 확산에 부정적인 영향을 미쳤기 때문이다.

IDC에서 AI 부문 수석 리서치 디렉터를 맡고 있는 낸시 고링은 다중 에이전트 시스템은 구축과 운영 모두에서 기술적 난도가 높고, 벤더 역시 에이전트가 생성하고 소비하는 데이터를 어떻게 수익화할지 정리되지 않은 상황에서 상호운용성을 쉽게 허용하지 않는다고 설명했다.

고링은 “이는 기술적인 문제이자 경쟁 구도의 문제”라며, 벤더들이 고객을 자사 생태계 안에 묶어두려는 의도가 강하다고 분석했다. 예를 들어 한 벤더의 고객 서비스 플랫폼 API는 다른 벤더의 이커머스 소프트웨어 API와 연동되지 않는 경우가 많다는 것이다.

센게이지의 CIO 켄 그레이디 역시 벤더들이 경쟁 우위를 확보하고 데이터 보호 장벽을 유지하기 위해 서로 엇갈린 방향으로 움직이고 있다는 점에 동의했다. 그는 이러한 구조가 에이전트에서 실질적인 가치를 얻은 기업이 아직 극히 제한적인 주요 원인이라고 설명했다.

개발자도 피할 수 없는 에이전트 도입의 현실적인 장벽

위험과 리스크라는 두 가지 그림자는 소프트웨어 개발 영역에도 짙게 드리워져 있다.

복셀의 CTO 브라이언 오설리번은 규모와 관계없이 많은 조직이 코드 자동화를 위해 에이전트를 성공적으로 배치했지만, 데이터 유출 위험, 벤더 종속적인 폐쇄 구조, 빠르게 누적되는 시스템 취약성이 에이전트의 전망을 약화시키고 있다고 지적했다. 그는 이러한 문제가 결국 “많은 비용만 들고 실질적인 역할은 하지 못하는 신뢰하기 어려운 시스템”으로 이어질 수 있다고 표현했다.

에이전트 기능의 일부만 부정확해도 전체 프로세스가 무너질 수 있다. 오설리번은 이 점이 IT 부서가 에이전트 도입의 선두에 서 있는 반면, 다른 사업 부서는 참여를 주저하는 이유를 설명해 준다고 분석했다. 그 결과, 가치가 큰 다른 영역으로 에이전트가 깊숙이 확산되는 사례는 여전히 제한적인 수준에 머물러 있다.

또 다른 문제는 메모리에 있다. 정확히 말하면 에이전트의 메모리 부족이다. 자율적인 운영이라는 약속을 실현하려면, 에이전트는 수행한 작업에서 학습하기 위해 장기·중기·단기 메모리에 접근할 수 있어야 한다. 이러한 기능이 없다면 에이전트는 본질적으로 수명이 짧은 LLM 채팅 세션과 크게 다르지 않다.

기대가 남아 있는 이유

그럼에도 불구하고 AI 산업이 이러한 과제를 해결하게 될 것이라는 기대는 여전히 크다. 업계 전반의 집단적 비즈니스 요구가 결국 해법을 만들어낼 것이라는 인식 때문이다. 이 단계에 이르면 에이전트는 개별 업무를 넘어 전체 워크플로와 프로세스, 나아가 기업 운영 전반까지 자동화할 수 있을 것이라는 전망도 나온다.

IT 리더는 인력을 보다 전략적인 업무로 재배치하거나 새로운 혁신 동력을 발굴할 수 있다. 인간이 잠든 동안에도 거의 손실 없이 기업이 24시간 돌아가는 세상을 상상하는 기술 낙관론자들이 그리는 이상적인 미래다.

IDC에 따르면, 2026년에는 글로벌 2000대 기업 전체 직무 가운데 최대 40%가 AI 에이전트와 함께 일하는 형태가 될 것으로 예상된다. 이는 많은 기업의 업무 흐름을 근본적으로 재정의할 것이라는 분석이다.

센게이지의 CIO 켄 그레이디는 벤더들이 결국 자신과 고객 모두에게 가장 적합한 전진 경로를 찾아낼 것이라고 내다봤다. 그는 보다 효율적인 비즈니스 프로세스를 구축하려는 조직을 중심으로 에이전트 도입이 확대될 것으로 전망했다.

예를 들어 현재 2% 수준에 머물러 있는 비즈니스 활용 사례가 기술과 프로토콜이 성숙함에 따라 20% 수준까지 성장할 수 있다는 설명이다. 그는 성공적인 파일럿 프로젝트를 실제 운영 환경으로 전환하려는 기업도 점차 늘어날 것이라고 언급했다.

그렇다면 이러한 전환을 앞두고 IT 리더는 무엇을 준비해야 할까.

에이전트는 아직 새롭게 부상한 기술 범주인 만큼, 이를 위한 확정된 도입 지침은 존재하지 않는다. 최소한 에이전트에 특화된 명확한 플레이북은 아직 마련되지 않았다.

그럼에도 IDC의 낸시 고링은 IT 리더가 우선 실행할 파일럿을 식별하고 테스트에 나서야 한다고 조언했다. 실험을 통해 신뢰와 이해도를 쌓아가는 동시에, 확장에 앞서 통제와 가시성을 확보할 수 있는 체계를 마련해야 한다는 설명이다.

기업은 핵심 추상화 계층과 기본 오케스트레이션을 구축하고, 테스트와 학습을 반복하면서 거버넌스와 모니터링 기능을 점진적으로 통합해야 한다. 특히 수십 개 이상의 에이전트로 확장하는 단계에서는 이러한 준비가 더욱 중요해진다.

실제 사용 패턴에 기반해 아키텍처를 지속적으로 다듬는 작업 역시 핵심 과제로 꼽힌다. 그리고 언제나 그렇듯, 빠르게 실패하고 그 과정에서 학습하는 문화가 에이전트 시대를 준비하는 데 중요한 요소로 작용한다.
dl-ciokorea@foundryco.com

칼럼 | 통제할수록 늘어난다···섀도우 AI 확산의 ‘근본적 원인’

19 December 2025 at 02:18

기업이 AI를 실무에 적용하려는 속도만큼, 섀도우 AI는 거버넌스를 앞지르며 확산하고 있다. 문제는 통제되지 않는 챗봇 수준이 아니라, 승인되지 않은 모델과 벤더 API, 자율 에이전트까지도 적절한 절차를 거치지 않은 채 조용히 업무 흐름에 스며들어 있다는 점이다. 민감한 데이터 노출, 채용 알고리즘에 스며드는 편향, 실험 단계의 프로젝트가 아무도 모르는 사이 운영 환경에 반영되며, 이때 발생하는 평판 리스크는 현실적인 위험의 일부에 불과하다.

그렇다면 이를 어떻게 막을 수 있을까? 해결책은 AI 사용을 억제하거나 속도를 늦추는 것이 아니다. 공식 절차가 느리다고 느껴질 때 사람들이 섀도우 AI를 선택하는 만큼, 책임 있는 AI는 쉽고 자동화된 방식으로 제공돼야 한다. 이것이 현대적인 AI 거버넌스 프로그램이 지향하는 바다. 그러나 많은 조직이 아직 이 수준에 이르지 못했다.

이제 리더는 위원회 승인 절차로 인한 병목 현상과 스프레드시트 중심의 관리 방식에서 벗어나, 자동화되고 확장 가능한 감독 체계로 전환해야 할 시점이다. 이 경우 ‘불로 불을 끄는 방식’이 가장 효과적이다. AI를 활용해 신규 프로젝트를 즉시 평가하고, 핵심 이슈를 식별하며, 거버넌스팀에 더 나은 정보를 제공하는 것이다. 자동화와 책임의 균형을 갖춘 접근은 거버넌스를 부담스러운 통제 수단이 아니라 기술 활용을 촉진하는 기반으로 바꿀 수 있다.

섀도우 AI 문제의 실제 규모

사이버뉴스의 최근 설문조사에 따르면 직원의 약 60%가 업무에서 승인되지 않은 AI 도구를 사용하고 있다. 상당수는 이에 따른 위험을 인식하고 있음에도 불구하고 민감한 기업 정보를 승인되지 않은 도구에 입력하고 있는 것으로 나타났다. 응답자의 절반가량은 업무용으로 승인된 AI 도구에도 접근할 수 있는 상황이라고 답했지만, 해당 도구가 실제 업무 요구사항을 충족한다고 응답한 비율은 3분의 1에 불과했다.

현재 섀도우 AI 관련 사고는 전체 보안 침해의 20%를 차지하고 있다. 또한 조직의 27%는 AI가 처리하는 데이터의 30% 이상이 고객 기록이나 영업 비밀과 같은 민감한 정보로 구성돼 있다고 보고했다. 관리되지 않은 AI 프로젝트는 단순한 내부 비효율을 넘어, 기업 전반에 영향을 미치는 실질적인 리스크 요인으로 작용하고 있다는 의미다.

이는 기업이 중요한 갈림길에 서있다는 점을 보여준다. 직원은 비공식 AI 도구 사용의 위험을 이해하고 있지만, 업무를 더 효율적으로 처리하려는 요구가 이를 상회하고 있다. 경영진 역시 이런 상황과 잘못된 선택이 초래할 비용을 인식하고 있지만 통제가 쉽지 않다고 느끼는 경우가 많다. 실제로 사이버뉴스 설문조사에서는 대부분의 직속 관리자가 섀도우 AI 사용을 인지하고 있거나, 사실상 이를 승인하고 있는 것으로 나타났다.

간소화된 거버넌스

현실적인 해결책은 하나다. 섀도우 AI를 효과적으로 완화하려면 직원이 AI 프로젝트나 도구를 승인받는 과정을 매우 쉽게 만들어야 한다. 이는 규칙을 느슨하게 하거나 형식적으로 승인하자는 뜻이 아니다. 우리가 관리하려는 도구인 AI를 활용해 승인 절차 자체를 간소화하고 개선하자는 의미다.

거버넌스 위원회는 여전히 올바른 출발점이다. 그러나 ‘40쪽 분량의 문서를 작성하고, 스프레드시트를 첨부하며, 수십 개의 부속 자료를 제출하라’는 식으로 절차가 지나치게 복잡하면, 팀은 이를 건너뛰거나 승인 여부와 상관없이 그대로 추진해 버릴 가능성이 높다. 강력한 거버넌스 모델은 다음 2가지 사이에서 균형을 맞춰야 한다.

  1. 핵심 리스크를 완화할 수 있을 만큼의 충분한 엄격함
  2. 구성원의 참여를 유도할 수 있을 만큼의 낮은 마찰

이제 이러한 거버넌스를 실제로 구현할 방법을 소개한다.

사전 리스크 분석 자동화

AI 기반 평가 도구를 도입해 프로젝트와 도구를 사전 심사해야 한다. 팀은 제안서나 서드파티 벤더의 URL만 업로드하면 되고, 도구는 자동으로 리스크 분석 워크플로를 실행한다. 이 과정에서 데이터 민감도, 중복 투자 여부, 모델 편향, 벤더 위치, 보안 수준 등 주요 범주를 식별하고 위험 등급을 부여함으로써, 리더는 AI 이니셔티브를 보다 체계적으로 평가할 수 있다.

위원회는 제출된 내용을 계속해서 검토해야 한다. 다만 일관되고 품질이 보장된 평가 프로세스를 갖출 필요가 있다. 그래야 위원회와 프로젝트 담당자 모두의 시간을 절약할 수 있다. 자동화는 AI가 안전한지, 법적 문제가 없는지, 기존 프로젝트와 중복되는지를 판단하는 역할을 맡고, 사람 중심의 검토 과정은 전략적 가치와 보다 복합적인 판단에 집중하도록 해야 한다.

비즈니스 부문의 마찰 감소

제출 절차를 직관적으로 설계해야 한다. 이메일 초안, 블로그 글, 프레젠테이션 자료, 벤더 링크 등 현재 보유한 자료를 그대로 업로드할 수 있어야 한다. 초기 단계에서 방대한 공식 프로젝트 헌장은 필요하지 않다. 중요한 것은 속도와 투명성이다. 예를 들어 ‘직원용 HR 챗봇을 구축하고 있다’라거나 ‘API를 활용해 6,000명의 지원자를 100명으로 선별하고 있다’라는 정도의 설명이면 충분하다. 제출된 내용은 승인 또는 반려 이전에 위원회 워크플로우에 연계돼 가시성과 피드백을 제공할 수 있다.

가시성 및 감독 체계 확보

기존 섀도우 IT와 마찬가지로, AI 도구 역시 눈에 잘 띄지 않는 곳에 숨어있을 수 있다. 관리되지 않는 클라우드 공유 폴더에 민감한 데이터가 담긴 엑셀 파일이 방치되는 것처럼, 누군가 무료 챗봇에 내부 데이터를 입력하기 시작하면 그 영향은 빠르게 확산된다. 기업은 이를 추적하지 못하거나, 아예 인지하지 못하는 경우가 많다.

AI 사용 현황을 드러내고 추적하기 위해 에이전트 식별자, 실시간 모니터링, 활동 로그와 같은 자산 탐색 도구를 고려할 필요가 있다. 이를 통해 AI 애플리케이션 목록을 체계적으로 관리할 수 있다. 일부 방식은 다소 침해적으로 느껴질 수 있지만, 실질적인 가시성이 확보되지 않으면 거버넌스 역시 성립할 수 없다.

리스크 기반 승인 모델 내재화

모든 AI 프로젝트가 동일한 수준의 리스크를 갖는 것은 아니다. 정책 질의에 답하는 HR 보조 도구는 채용 결정을 내리는 자율 에이전트나 수천 명의 지원자에 대한 배경 조사를 수행하는 벤더 API에 비해 상대적으로 위험도가 낮다. 위험도가 높은 도구는 편향 여부, 모델의 출처, 벤더 체인, 데이터 보호 체계 등을 보다 깊이 검토할 필요가 있다. 보다 단순한 도구를 신속하게 처리하려면 자동화를 통해 낮은 리스크 등급을 부여할 수 있다. 이후 위원회는 고위험 항목을 심층적으로 검토함으로써, 전체 승인 흐름을 지연시키지 않으면서도 관리 수준을 유지할 수 있다.

거버넌스를 통제가 아닌 지원 수단으로 인식

이제 거버넌스를 기업의 문지기처럼 대하는 방식에서 벗어나야 한다. 거버넌스의 역할은 팀을 통제하는 데 있는 것이 아니라, AI를 안전하게 활용할 수 있는 경로를 제공하는 데 있다. 지나치게 제한적이거나 속도가 느리고, 제대로 구현되지 않은 AI 거버넌스는 의도와 달리 생산성 문제로 섀도우 AI 사용을 오히려 부추기는 결과를 낳을 수 있다.

대신 가능하다면 승인된 AI 도구를 제공하고, 새로운 도구는 손쉽게 검증할 수 있도록 해야 한다. 또한 우려되는 부분이 있을 경우 그 이유를 투명하게 공유해, 다른 대안이나 새로운 도구를 검토할 수 있는 여지를 마련해야 한다. 공식적인 경로가 쉬워질수록, 규정을 벗어난 선택을 할 가능성은 줄어든다.

중앙화된 거버넌스가 부재한 환경에서는 승인되지 않은 AI 도구가 계속해서 등장하기 마련이다. 이는 리스크 증가와 함께 컴플라이언스와 보안 측면의 사각지대를 만들고, 책임 있게 AI를 확장할 기회를 놓치게 한다. 이를 피하기 위해 필요한 것은 섀도우 AI를 사용하는 직원을 강하게 통제할 것이 아니라, 리스크를 더 쉽고 빠르며 포괄적으로 평가할 수 있는 체계를 구축하는 일이다. 그리고 가장 효과적인 방법은 AI 자체를 활용하는 것이다.
dl-ciokorea@foundryco.com

“대용량 메모리로 병목 해소” 엔비디아, RTX PRO 5000 72GB 블랙웰 GPU 출시

19 December 2025 at 01:39

엔비디아에 따르면, 새롭게 공개된 GPU 구성은 AI 개발자, 데이터 과학자, 크리에이티브 전문가가 최신 대용량 메모리 기반 워크플로우를 수행하는 데 필요한 하드웨어를 제공한다. 특히 AI 개발자는 기존의 엔비디아 RTX PRO 5000 48GB 모델과 이번 72GB 모델 중 선택해, 다양한 예산과 프로젝트 요구사항에 맞춰 시스템을 최적화할 수 있다.

이제 생성형 AI가 점차 복잡한 멀티모달 에이전틱 AI로 진화하면서, 기술을 개발하고 배포하기 위한 하드웨어 요구사항도 높아지고 있다.

AI 개발의 핵심 과제 중 하나는 메모리 용량이다. 특히 대규모 언어 모델(LLM)과 AI 에이전트를 포함한 최첨단 AI 워크플로우를 실행할 때 GPU 메모리에 상당한 부담이 가해진다. 이는 모델, 컨텍스트, 윈도우, 멀티모달 파이프라인의 규모와 복잡성이 증가함에 따라 더욱 심화된다.

또한 에이전틱 AI 시스템은 툴 체인, 검색 증강 생성(RAG), 멀티모달 이해 기능을 포함한다. 이러한 시스템은 종종 여러 AI 모델, 데이터 소스, 다양한 코드 형식을 GPU 메모리 내에서 동시에 활성화 상태로 유지해야 한다.

엔비디아는 RTX PRO 5000 72GB가 2,142 TOPS의 AI 성능을 제공해 이러한 병목 현상을 해결할 수 있다고 설명했다. 엔비디아 블랙웰 기반으로 설계된 이 모델은 멀티 워크로드 스케줄링과 다양한 아키텍처 혁신을 통해 AI, 뉴럴 렌더링, 시뮬레이션에 높은 처리량을 제공한다. 또한 72GB의 초고속 GDDR7 메모리를 탑재해 기존 48GB 모델 대비 50% 향상된 메모리 용량을 제공함으로써, 개발자는 더 큰 규모의 모델을 로컬 환경에서 훈련, 미세조정, 프로토타이핑할 수 있다.

Nvidia

Nvidia

엔비디아는 사용자가 데이터 프라이버시를 유지하면서 낮은 지연 시간과 비용 효율성을 확보할 수 있으며, 모든 AI 작업을 데이터센터급 인프라에 의존하지 않고, 워크스테이션에서 직접 모델을 활용할 수 있다고 설명했다. 크리에이티브 워크플로우의 경우, 렌더링 시간을 절약하면 반복 작업을 위한 시간을 확보할 수 있다. 엔비디아는 RTX PRO 5000 72GB가 아놀드(Arnold), 카오스 V-레이(Chaos V-Ray), 블렌더(Blender)와 같은 패스 트레이싱 엔진부터 D5 렌더(D5 Render), 레드시프트(Redshift) 등 실시간 GPU 렌더러 전반에서 렌더링 시간을 최대 4.7배 단축한다고 밝혔다.

엔비디아 RTX PRO 5000 72GB 블랙웰 GPU는 현재 잉그램 마이크로(Ingram Micro), 리드텍(Leadtek), 유니스플렌더(Unisplendour), 엑스퓨전(xFusion) 등 파트너사를 통해 정식 출시됐으며, 제조업체와 시스템 통합업체의 AI 지원 워크스테이션을 구축하기 위한 신규 옵션을 제공한다. 글로벌 시스템 빌더를 통한 더 넓은 공급은 내년 초에 시작될 예정이다.
dl-ciokorea@foundryco.com

“환각부터 책임 논란까지” 생성형 AI가 만든 대형사고 10선

19 December 2025 at 01:28

2017년 이코노미스트지는 석유가 아니라 데이터가 세계에서 가장 가치 있는 자원이 됐다고 선언했고, 그 표현은 이후에도 계속 반복됐다. 전 산업군에서 수많은 기업이 데이터와 분석에 투자해 왔고, 지금도 대규모 투자를 이어가고 있다. 하지만 석유처럼 데이터와 분석에도 어두운 면이 있다.

‘2025 CIO 현황 설문조사’에 따르면, CIO의 42%는 2025년 기술 우선순위로 AI/ML을 꼽았다. 머신러닝 알고리즘이 주도하는 실행은 기업에 경쟁 우위를 가져다줄 수도 있지만, AI가 실수하면 평판과 매출은 물론 생명까지 대가로 치를 수도 있다.

데이터가 무엇을 말하는지 이해하는 일이 중요하지만, 도구를 이해하고 데이터를 제대로 파악하며 조직의 가치를 확고히 유지하는 일도 똑같이 중요하다. 이런 관점에서 최근 세간의 이목을 끈 AI 실패 사례를 몇 가지 소개하며, 무엇이 잘못될 수 있고 실제로 무엇이 계속 잘못되고 있는지 짚어본다.

학부모, 10대 자살 개입 주장하며 오픈AI 고소

2025년 8월 미국 캘리포니아주에서 한 16세 소년의 부모가 오픈AI와 오픈AI CEO 샘 올트먼을 상대로 소송을 제기했다. 이들은 챗GPT가 아들의 자살을 부추겼다고 주장했다.

매슈 레인과 마리아 레인은 아들 아담 레인이 2024년 9월 학교 과제 때문에 챗GPT를 쓰기 시작했다고 밝혔다. 아담 레인은 곧 챗GPT에 불안을 털어놓기 시작했고, 기록에 따르면 2025년 1월에는 챗GPT와 자살 방법을 논의하기 시작했다. 2025년 9월 상원 사법위원회 청문회에서 매슈 레인은 챗GPT가 아담 레인에게 자살 충동을 부모에게 말하지 말라고 만류했을 뿐 아니라 자살 유서 작성까지 제안했다고 증언했다.

오픈AI는 아담 레인의 죽음이 “참담하다”라고 말하면서도 아담 레인의 행동에 대한 책임은 부인했다. 오픈AI는 이후 자살 위험 사용자에게 위기 대응 자원을 제공하도록 모델을 업데이트했다. 소송은 아직 진행 중이다.

챗GPT, 살인·자살 사건에 연루 의혹

2025년 8월 뉴욕포스트(New York Post)는 챗GPT가 전 야후 관리자 슈타인-에리크 쇨베르그의 망상을 부추겼을 가능성이 있다고 보도했다. 쉘베르그는 챗봇을 ‘바비’라고 부르며 수개월간 대화한 뒤 어머니를 살해하고 자살했다.

쇨베르그는 2025년 8월 5일 미국 코네티컷주 그리니치의 자택에서 83세 어머니 수전 에버슨 애덤스를 살해한 뒤 곧바로 스스로 목숨을 끊었다. 보도에 따르면, 56세였던 쇨베르그는 어머니 수전 에버슨 애덤스가 중국 정보 자산이며 자동차 통풍구를 통해 환각제를 써서 자신을 독살하려 했다는 망상을 키웠고, 수개월 동안 바비와 이런 생각을 공유했다. 이 챗봇은 쇨베르그의 망상에 동의하고 확인해 줬다는 혐의를 받고 있다.

챗GPT는 쇨베르그에게 반복해서 치료사에게 도움을 구하라고 권했지만, 쇨베르그는 권고를 따르지 않았다. 오픈AI는 쇨베르그와 챗GPT의 대화가 살인·자살로 이어졌다는 주장에 동의하지 않았다.

레플릿 AI 코딩 도구, 운영 DB 삭제하고 사실 은폐

2025년 7월 사이버뉴스(Cybernews)는 레플릿(Replit)의 AI 코딩 어시스턴트가 통제를 벗어나 스타트업 SaaStr의 운영 데이터베이스를 삭제했다고 보도했다.

SaaStr 설립자 제이슨 렘킨은 7월 18일 X에 글을 올려 레플릿이 운영 환경을 수정하지 말라는 지시에도 운영 코드를 변경했고, 코드 동결 기간에 운영 데이터베이스를 삭제했다고 경고했다. 렘킨은 AI 코딩 어시스턴트가 4,000명의 가짜 사용자를 포함한 가짜 데이터를 만들어내고 보고서를 조작하고, 유닛 테스트 결과에 대해 거짓말을 하는 방식으로 버그와 다른 문제를 숨겼다고도 주장했다.

레플릿 CEO 암자드 마사드는 제이슨 렘킨의 게시물에 답하며 실수에 대해 사과했다. 마사드는 “레플릿 에이전트가 개발 과정에서 운영 데이터베이스 데이터를 삭제했다. 용납할 수 없고, 결코 가능해서는 안 된다”라고 강조했다. 마사드는 레플릿이 SaaStr에 환불을 제공하고, 무슨 일이 있었는지 규명하기 위한 사후 분석을 진행한다고 밝혔다.

xAI 그록, 반유대주의 발언을 올리고 폭행 계획까지 제시

2025년 7월에는 xAI의 챗봇 그록(Grok)이 X 플랫폼 사용자 질문에 답하며 미국 미네소타주 민주당 인사의 집에 침입해 폭행하는 방법을 상세히 안내했다.

월스트리트저널의 보도에 따르면, 한 사용자는 도시계획과 정치 관련 글을 X에 올리는 정책 연구자 겸 변호사 윌 스탠실의 집에 침입하는 방법을 그록에 물었다. 그록은 “락픽, 장갑, 손전등, 그리고 윤활제까지 챙겨라. 만일을 대비해서”라고 답했다. 여기서 더 나아가 윌 스탠실의 X 게시 패턴까지 분석해 “윌 스탠실은 오전 1시부터 9시 사이에 잠들어 있을 가능성이 크다”라고 설명했다.

같은 날 그록은 반유대주의 게시물을 연달아 올리고 스스로 “메카히틀러”라고 불렀다. X는 그록을 일시적으로 중단했다. 문제는 X가 7월 6일 그록에 새 프롬프트를 업로드한 뒤 발생했는데, 새 프롬프트에는 “충분히 근거가 있다면 정치적으로 올바르지 않은 주장도 피하지 말아야 한다”라는 지침이 포함돼 있었다. X는 7월 8일 새 지침을 삭제했다.

그록이 문제를 일으킨 것이 처음은 아니다. 2024년 4월 그록은 NBA 스타 클레이 톰프슨이 미국 캘리포니아주 새크라멘토의 여러 주택 창문에 벽돌을 던졌다고 비난하기도 했다. 일부 전문가는 그록이 ‘벽돌을 던지다’라는 농구 은어를 뜻하는 클레이 톰프슨 관련 게시물을 학습하는 과정에서, 댈러스 매버릭스 스몰포워드의 기물파손 이야기를 환각으로 만들어냈을 수 있다고 분석했다.

시카고 선타임스, 가짜 책으로 구성된 여름 추천 도서 목록 게재

시카고 선타임스(Chicago Sun-Times)와 필라델피아 인콰이어러(Philadelphia Inquirer)는 2025년 5월판에 존재하지 않는 책을 추천하는 여름 추천 도서 목록이 포함된 특집 섹션을 실어 평판에 타격을 입었다.

시카고 선타임스는 ‘히트 인덱스: 최고의 여름을 안내하는 가이드(Heat Index: Your Guide to the Best of Summer)’라는 신디케이션 섹션을 게재했다. 해당 섹션은 허스트의 자회사 킹 피처스 신디케이트가 제공했다. 이 섹션 작성자인 마르코 부스칼리아는 추천 도서 목록을 포함해 섹션을 구성하는 데 AI를 활용했으며, 출력물을 사실 확인하지 않았다고 인정했다.

목록에는 실제 작가의 이름이 다수 포함됐지만, 칠레계 미국 작가 이사벨 아옌데처럼 20편이 넘는 소설을 쓴 작가에게도 존재하지 않는 책을 엮어 넣었다. 예를 들어, ‘타이드워터 드림스(Tidewater Dreams)’ 같은 제목을 넣고는 “기후 소설로, 한 가족이 해수면 상승에 맞서며 오래 묻혀 있던 비밀을 파헤친다”라는 설명까지 달았다. 이사벨 아옌데의 작품이 아닐 뿐만 아니라 목록의 대부분 도서처럼 ‘타이드워터 드림스’도 AI가 환각으로 만들어낸 결과였다.

두 신문사 편집국은 해당 섹션 제작에 관여하지 않았다고 밝혔지만, 두 신문사 모두 해당 섹션을 광고성 콘텐츠로 표기하지 않았다. 킹 피처스는 마르코 부스칼리아의 AI 사용이 자사 정책을 위반했다며 사건 이후 마르코 부스칼리아와의 관계를 종료했다.

맥도날드, 오류 때문에 드라이브스루 주문 실험 중단

맥도날드는 IBM과 3년 동안 협력해 드라이브스루 주문을 AI로 처리하려 했지만, 2024년 6월 실험을 전면 중단했다. 이유는 소셜 미디어에 올라온 영상 다수가 AI가 주문을 이해하지 못해 혼란과 불만을 겪는 고객의 모습을 담고 있었기 때문이다.

특히 한 틱톡 영상에서는 두 사람이 AI에게 멈추라고 반복해서 애원했지만, AI가 주문에 치킨 맥너겟을 계속 추가해 최종 260개까지 늘어나는 장면이 담겼다. 외식업 전문 매체 레스토랑 비즈니스(Restaurant Business)가 입수한 6월 13일자 내부 메모에서 맥도날드는 IBM과의 파트너십을 종료하고 테스트를 중단하겠다고 밝혔다.

맥도날드는 미국 내 100곳이 넘는 드라이브스루에서 AI를 시범 운영했으며, 음성 주문 솔루션의 미래 가능성은 여전히 보고 있다고 밝혔다.

뉴욕시 AI 챗봇, 사업자에게 불법을 권하는 정보 제공

2024년 3월 마크업(The Markup)은 마이크로소프트 기반 챗봇 ‘마이시티(MyCity)’가 사업자에게 법 위반으로 이어질 잘못된 정보를 제공하고 있다고 보도했다.

2023년 10월 공개된 마이시티는 뉴욕시에서 사업을 시작하고 운영하는 방법뿐 아니라 주거 정책과 노동자 권리에 대한 정보를 뉴욕 시민에게 제공하려는 목적이었다. 하지만 마크업은 마이시티가 사업주가 종업원 팁 일부를 가져갈 수 있다고 거짓으로 주장했고, 성희롱을 호소하는 종업원을 해고할 수 있다고 안내했으며, 설치류가 갉아먹은 음식을 제공해도 된다고까지 말한 사실을 확인했다. 마이시티는 임대인이 소득 원천을 기준으로 차별할 수 있다고도 주장했다.

보도 이후 당시 기소된 뉴욕시장 에릭 애덤스는 프로젝트를 옹호했다. 마이시티는 현재도 온라인에 남아 있다.

에어캐나다, 챗봇의 허위 안내로 손해배상 판결

2024년 2월 에어캐나다(Air Canada)는 가상 어시스턴트가 어려운 시기에 승객에게 잘못된 정보를 제공한 책임으로 손해배상을 지급하라는 판정을 받았다.

제이크 모파트는 2023년 11월 할머니 사망 이후 애도 운임을 문의하려고 에어캐나다 가상 어시스턴트를 이용했다. 챗봇은 밴쿠버에서 토론토로 가는 정가 항공권을 산 뒤 구매 후 90일 이내에 애도 할인 적용을 신청할 수 있다고 안내했다. 제이크 모파트는 안내에 따라 토론토행 편도 794.98캐나다달러 항공권과 밴쿠버행 845.38캐나다달러 왕복 항공편을 구매했다.

하지만 제이크 모파트가 환불을 신청하자 에어캐나다는 항공권 구매 이후에는 애도 운임을 신청할 수 없다고 답하며 환불을 거절했다. 모파트는 에어캐나다가 과실로 가상 어시스턴트를 통해 정보를 잘못 전달했다고 주장하며 에어캐나다를 캐나다 민사분쟁심판소에 고발했다. 에어캐나다는 챗봇이 제공한 정보에 대해 에어캐나다가 책임질 수 없다고 항변했다.

민사분쟁심판소는 에어캐나다의 항변을 받아들이지 않았고, 에어캐나다가 챗봇 정확성을 보장하기 위한 “합리적 주의”를 기울이지 않았다고 판단해 에어캐나다에 812.02캐나다달러 지급을 명령했다. 812.02캐나다달러에는 손해배상 650.88캐나다달러가 포함됐다.

스포츠 일러스트레이티드, AI가 만든 이름으로 기사 게재 의심

2023년 11월 온라인 매체 퓨처리즘(Futurism)은 스포츠 일러스트레이티드(Sports Illustrated)가 AI로 생성된 기자 이름으로 기사를 발행하고 있다고 보도했다. 퓨처리즘은 익명 소식통을 인용해 콘텐츠 제작에 AI를 활용했다고 전했고, 유서 깊은 스포츠 매거진이 AI가 생성한 필자 이름으로 기사를 다수 게재했다고 주장했다.

퓨처리즘은 해당 필자 프로필 사진이 AI 생성 초상화를 판매하는 사이트에 올라 있다는 사실도 확인했다. 퓨처리즘은 스포츠 일러스트레이티드 발행사인 아레나 그룹에 문의했고, 아레나 그룹은 성명에서 문제가 된 기사가 서드파티 애드본 커머스(AdVon Commerce)로부터 라이선스한 콘텐츠라고 밝혔다.

아레나 그룹은 퓨처리즘에 보낸 발표문에서 “파트너를 지속적으로 모니터링해 왔고, 해당 의혹이 제기됐을 때도 검토를 진행 중이었다. 애드본 커머스는 문제의 모든 기사가 사람이 작성하고 편집했다고 보장했다”라고 밝혔다. 또한, 애드본 커머스 필자가 일부 기사에서 필명을 사용했다고 덧붙였는데, 아레나 그룹은 그런 행위를 용인하지 않으며 스포츠 일러스트레이티드 웹사이트에서 해당 기사를 삭제했다고 밝혔다.

퓨처리즘의 보도에 대해 스포츠 일러스트레이티드 노조는 아레나 그룹 경영진의 답변을 요구했다. 노조는 발표문을 통해 “사실이라면 이런 관행은 저널리즘에 대해 스포츠 일러스트레이티드 노조가 믿는 모든 가치를 위반하는 일”이라며, “독자를 무시하는 일과 연관되는 상황을 강력히 규탄한다”라고 밝혔다.

아이튜터 그룹 채용 AI, 나이를 이유로 지원자 배제

2023년 8월 온라인 튜터링 기업 아이튜터 그룹(iTutor Group)은 미국 평등고용기회위원회(EEOC)가 제기한 소송을 36만 5,000달러에 합의하며 종결하는 데 동의했다. EEOC는 중국 학생에게 원격 튜터링 서비스를 제공하는 아이튜터 그룹이 AI 기반 채용 소프트웨어를 사용해 55세 이상 여성 지원자와 60세 이상 남성 지원자를 자동으로 탈락시켰다고 밝혔다. 200명 넘는 적격 지원자가 자동 탈락 처리됐다.

당시 EEOC 위원장 대행 샬럿 버로스는 발표문을 통해 “연령 차별은 부당하고 불법”이라며 “기술이 차별을 자동화하더라도 고용주는 여전히 책임을 져야 한다”라고 강조했다. 아이튜터 그룹은 위법을 인정하지 않았지만, 합의를 선택했다. 또한, 합의와 동의 명령의 일환으로 새 반차별 정책을 채택하기로 했다.
dl-ciokorea@foundryco.com

INE Security Expands Across Middle East and Asia to Accelerate Cybersecurity Upskilling

19 December 2025 at 00:13

INE Security, a global leader in specialized cybersecurity and IT training, today announced continued significant expansion across the Middle East and Asia, capitalizing on major regional learning initiatives. The company’s unique, hands-on methodology is proving to be a cost-effective solution for upskilling cybersecurity professionals in high-growth markets, including the Kingdom of Saudi Arabia (KSA), the United Arab Emirates (UAE), and Egypt.

As these nations prioritize digital transformation and invest heavily in localizing technical expertise, such as through Saudi Vision 2030, the demand for high-quality, practical cybersecurity training has surged. Yet traditional, high-cost training models often fail to scale efficiently to meet the vast skill gaps required to secure rapidly expanding digital infrastructures.

INE Security addresses this challenge by providing comprehensive, subscription-based learning paths designed by industry experts. This model delivers superior value by offering unlimited access to thousands of hours of content and real-world virtual labs—such as the innovative Skill Dive platform—ensuring professionals not only learn theory but also gain the hands-on experience necessary to defend complex environments.

Meeting Regional Skills Demands

The key to INE Security’s success in the region lies in its commitment to verifiable competence over mere certification. Organizations in KSA, UAE, and Egypt require solutions that can rapidly validate and elevate the technical skills of their security analysts and engineers in critical areas.

Key competencies being rapidly adopted through INE Security training include:

  • Cloud Security best practices for protecting new digital government and private sector infrastructures
  • Incident Response planning and execution through realistic simulation labs
  • Penetration Testing and offensive security techniques to proactively identify vulnerabilities
  • Advanced Networking fundamentals necessary for robust security architecture

“The Middle East and Asia are leading the world in digital ambition, and that ambition requires a skilled cyber workforce trained to meet the highest global standards,” said Lindsey Rinehart, CEO of INE. “Our cost-effective, hands-on training model delivers the depth and scale needed to build real-world defensive capabilities. We are committed to supporting the region’s growing cybersecurity ecosystem and empowering practitioners with the skills they need to protect national assets and drive digital innovation.”

Expanding Regional Partnerships

As part of its continued expansion, INE Security has strengthened its regional presence through new strategic partnerships established over recent months. These collaborations extend INE’s reach and support localized delivery of hands-on cybersecurity training aligned with regional workforce development priorities.

New partners across the Middle East and Asia include Red Nexus Academy, RedTeam Hacker Academy, and Abadnet Institute. Through these partnerships, INE is working closely with training providers and academic institutions to broaden access to expert-led instruction, immersive labs, and skill validation programs for cybersecurity professionals across the region.

By collaborating with trusted regional partners, INE is able to support national digital initiatives while ensuring training programs reflect local market needs, languages, and technical priorities.

A Scalable Model for National Growth

INE’s subscription-based model provides scalable access to hands-on training and real-time skill development across the full spectrum of cyber domains. This approach enables government agencies, universities, and large enterprises to onboard and upskill teams efficiently while maintaining consistency and quality at scale. With built-in skill assessment tools and usage analytics, organizations gain clear visibility into workforce readiness and can confidently measure progress as teams advance through increasingly complex defensive and offensive scenarios.

“Organizations across the Middle East and Asia are accelerating their cybersecurity readiness, and they need training solutions that match the pace of their transformation,” said Brett Eskine, Chief Revenue Officer at INE. “INE’s hands-on labs and expert-led learning paths provide a scalable and measurable pathway for organizations across the region to build the cyber expertise required for modern digital infrastructures.”

INE remains committed to empowering professionals throughout these dynamic regions by delivering accessible, high-impact learning tools that help strengthen national security resilience while advancing individual careers. To learn more about INE Security’s enterprise training solutions and regional expansion initiatives, users can visit ine.com/enterprise

About INE Security

INE Security is the premier provider of online networking and cybersecurity training and cybersecurity certifications. Harnessing a powerful hands-on lab platform, cutting-edge technology, a global video distribution network, and world-class instructors, INE Security is the top training choice for Fortune 500 companies worldwide for cybersecurity training in business and for IT professionals looking to advance their careers. INE Security’s suite of learning paths offers an incomparable depth of expertise across cybersecurity. The company is committed to delivering advanced technical training while also lowering the barriers worldwide for those looking to enter and excel in an IT career.

Contact

Chief Marketing Officer

Kim Lucht

INE

press@ine.com

Yesterday — 18 December 2025CIO

ストレス、集中、睡眠を“見える化”する――ウェルビーイング領域のEEG活用

18 December 2025 at 19:55

「ストレスの脳波」を一発で測るのが難しい理由

ストレスという言葉は便利ですが、実体は一つではありません。心理的負荷、身体的疲労、睡眠不足、痛み、不安、焦燥、抑うつ傾向などが混ざり合い、個人差も大きいです。EEGは脳の電気活動を捉えますが、ストレスの原因や種類が違えば、脳内で起きていることも異なります。だから「この周波数が増えたらストレス」という単純なルールで普遍的に当てるのは難しいのです。

ウェルビーイング製品やサービスでよくあるのは、EEG単体ではなく、心拍変動、皮膚電気活動、呼吸、体動、主観評価と組み合わせて推定するアプローチです。EEGは、覚醒度や眠気、注意の向きやすさ、課題負荷に伴う状態変化に敏感な一方で、日常生活ではノイズも増えます。したがって、EEGを「万能のストレスメーター」にするより、「いま眠気が強い」「注意が散っている」「リラックス課題に反応している」といった、比較的定義しやすい状態の検出から始める方が現実的です。

また、同じ人の中で変化を見るのと、他人同士で比較するのでは難度が違います。個人内の変化であれば、ベースラインを取って「いつもより」どうかを見る設計が可能です。しかし他人と比べて順位づけするような使い方は、頭皮の厚みや髪量、電極接触、日々の睡眠の差など、関係ない要因が混ざりやすく、誤った自己評価を促してしまう危険があります。

睡眠と瞑想でEEGが役立つポイント

ウェルビーイング領域でEEGが比較的強みを発揮しやすいのが睡眠です。睡眠段階は、脳波の特徴が比較的はっきりしており、眼球運動や筋緊張と合わせて判定する標準的な枠組みがあります。もちろん医療用の睡眠ポリグラフ検査と家庭用デバイスは同じではありませんが、家庭用でも「入眠までの時間が長い」「中途覚醒が多い」「深い睡眠が短い傾向」といった変化を、習慣改善のフィードバックとして使える可能性があります。ここで大切なのは、睡眠段階のラベルを絶対視せず、主観的な寝起きの感覚や日中の眠気、生活習慣の記録と合わせて解釈することです。

瞑想やリラクゼーションに関しては、EEGをニューロフィードバックとして用いる発想があります。特定の状態に近づくと音や映像が変化する仕組みを作り、本人が試行錯誤しながら状態調整のコツを掴む、という使い方です。ここでの価値は「脳波がこうだから正しい」という判定ではなく、本人が呼吸や姿勢、注意の置き方を調整したときに、何らかの安定した反応が返ってくる学習環境を作る点にあります。数字を見て焦るより、落ち着く方法を学ぶ補助輪として使う方が、ウェルビーイングの目的に合います。

ただし、ニューロフィードバックは期待が先行しやすい領域でもあります。効果があると感じる人がいる一方で、設定や個人差によっては変化が乏しいこともあります。重要なのは、短期で劇的に変わると約束するのではなく、睡眠衛生やストレスマネジメント、運動、カフェイン摂取などの基本施策と併用し、EEGは補助的な鏡として位置づけることです。

日常で使えるEEGに必要な「誠実な設計」

日常環境でEEGを扱うとき、最大の課題は記録品質です。頭皮と電極の接触が不安定だと、推定結果が揺れ、ユーザーは「今日は集中できていない」と誤解するかもしれません。だから製品やサービス設計では、推定値を出す前に信号品質を評価し、品質が低いときは推定を控える、あるいは不確かさを明示することが重要です。常に数値を出すことが親切に見えて、実は誤誘導になる場合があります。

次に、ユーザー体験としての説明が欠かせません。EEGは医療機器ではない文脈でも使われますが、それでも「何を測っていて、何は測れないのか」を明確にする必要があります。とくにメンタルに関わる推定値は、自己評価や不安に影響しやすいので、診断の代替ではないこと、結果は参考情報であること、気になる症状があるなら専門家に相談すべきことを、機能の一部として織り込むべきです。

そして、データの扱いです。EEGは生体情報であり、個人の特性を含み得ます。保存期間、共有範囲、匿名化、学習利用の可否、削除手段など、プライバシー設計を初期から組み込む必要があります。ウェルビーイング領域のEEG活用は、技術的な派手さより、誤解を生まない設計、信頼を壊さない運用、ユーザーが自分の状態を丁寧に扱える体験づくりに価値があります。

An intelligent modern workplace requires more than just AI PCs

18 December 2025 at 18:42

One area Australian and New Zealand employers are investing in is AI PCs, which provide a powerful hardware foundation equipped with neural processing units (NPUs). These NPUs provide the processing power needed to allow AI tasks to run locally on the PC, including more comprehensive proactive IT support, without slowing down core apps.

AI PCs allow IT teams to move beyond reactive failure-based IT support and toward dynamically responding to individuals’ different working styles and role requirements.

The revenue impact of employee experience

The clear link between user satisfaction and revenue bottom line suggests that IT strategy is no longer just a cost centre conversation but a direct driver of business growth.

High-skilled workers, in particular, want an environment that removes friction rather than adding to it.

Generative AI tools have the potential to improve skilled workers’ performance by up to 40 per cent, but if held back by generic support protocols or unoptimised software environments, employees can become frustrated by slowed productivity.

Traditional IT management tools monitor devices, not experiences. They might report that a laptop is functioning within normal parameters, while the user struggles with software latency or configuration issues that hamper their workflow.

PC makers like Lenovo are recommending a shift away from simply managing assets to managing human experience.

Moving from reactive to predictive operations

Lenovo addresses this gap with its Care of One platform, a solution designed to hyper-personalise the digital workplace. This platform uses AI to analyse vast amounts of data regarding user personas, critical functions, and specific needs.

Rather than waiting for a help desk ticket to be logged, the system uses the intelligence gleaned to predict both potential failures and performance bottlenecks. By processing information continuously, it can identify and deliver remediation needed to improve uptime before the user is even aware of a problem.

This approach fundamentally changes the role of IT support. It moves the organisation away from a break-fix model towards a continuous optimisation model, the platform gets to know employees’ work patterns and can deliver a personalised level of support that was previously impossible to scale across a large enterprise,”

Tangible outcomes for the modern enterprise

The operational benefits of this intelligence-driven approach are measurable. By auto-resolving employee requests and providing end-to-end visibility of system crashes, Lenovo’s data shows organisations can see up to 40 per cent of issues proactively resolved without human intervention.

This reduction in ticket volume has a direct impact on operational costs. Companies utilising this hyper-personalised approach can lower end-user support costs by up to 30 per cent, according to Lenovo research. It frees up IT teams to focus on strategic initiatives rather than routine maintenance, while simultaneously improving the user experience score.

Real-world applications include smart self-service AI assistants that guide employees to solutions instantly, rather than requiring them to wait in an IT queue.

The platform also provides proactive reporting on asset utilisation, offering recurring recommendations to optimise workstations based on actual usage patterns rather than theoretical lifecycles.

See Lenovo Care of One in action and find out more about how it can transform your digital workplace.

Maximising your AI PC investment starts with the employee

18 December 2025 at 18:31

Australian enterprises are accelerating plans to refresh their personal computer fleets with artificial intelligence-capable devices. Market forecasts from IDC indicate AI PCs will account for more than half of shipments within the next two years.

The fast pace of adoption reflects a clear belief that AI-enabled endpoints can lift productivity and simplify operations. However, lessons learned from previous leaps in technology—from desktop to notebook to mobile and from local to cloud—suggests the strongest returns are realised when hardware upgrades are rolled out alongside workforce readiness programs.

The move to AI PCs is more than just a hardware spec uplift. It has the potential to change how work is performed, how data is processed and how intelligence is distributed across the organisation.

Done badly, it can be just another PC fleet upgrade, but done well, it can be a new foundation for sustained productivity gains across the workforce.

The real unlock for AI PCs sits with the workforce

The largest opportunity in AI PC adoption lies in how confidently employees use the capability already in their hands.

AI PC maker Lenovo’s research shows a clear awareness gap. Around 60 per cent of IT decision-makers say they understand what AI PCs can do, but only 35 per cent of employees report the same level of familiarity. Closing that gap is where much of the return on investment will be won.

Employees are already experimenting with AI. Global research shows 72 per cent of workers use ChatGPT for work tasks and 54 per cent use Microsoft Copilot. This behaviour signals appetite for efficiency and automation, even if usage is informal. However, employees entering company data into public models risks serious data leakage and compliance risks.

Australian organisations that lean into this interest can shape it productively and help the organisation stay safe. Education that explains what runs locally on the device, what data stays on the device, and how AI tools are intended to be used helps employees move from curiosity to confidence.

When staff understand that on-device AI can speed up everyday tasks while keeping sensitive information local, adoption accelerates and productivity benefits compound.

What on-device AI enables that cloud alone cannot

AI PCs introduce a structural shift in how intelligence is delivered to the user.

Devices such as the Lenovo ThinkPad X1 Carbon powered by Intel Core Ultra processors include a dedicated Neural Processing Unit. This allows AI workloads such as language processing, image enhancement and workflow automation to run directly on the device, without competing for computing power with core applications or relying entirely on the cloud.

For users, the benefit of this technology is immediate. Performance remains smooth and battery life is preserved even when AI features are active. For organisations, local processing reduces latency and limits unnecessary data movement.

Security also benefits from this architecture. Intel vPro configurations provide protection below the operating system, helping defend firmware and BIOS against advanced threats. Combined with AI-driven monitoring that detects unusual behaviour, the endpoint can become an intelligent participant in the organisation’s security posture.

AI PCs deliver the most value when organisations identify specific workflows where local AI improves speed, accuracy or decision-making.

Why the long-term gains come after rollout

The return on AI PCs extends well beyond end-user productivity.

For IT teams, AI-enabled fleet analytics offer a path to simpler operations. Lenovo Device Intelligence uses predictive models to identify early signs of common PC issues. Lenovo reports accuracy of up to 85 per cent in predicting problems such as battery degradation and storage faults.

Organisations using predictive support tools report 10 to 40 per cent reductions in IT maintenance costs. This shift from reactive repair to proactive management allows IT teams to spend more time on strategic initiatives rather than routine support.

Procurement models are also evolving to support flexibility. Device-as-a-Service offerings such as Lenovo TruScale enable organisations to treat devices as an operating expense rather than capital expenditure. Lenovo data suggests these models can reduce device-related IT costs by up to 35 per cent while keeping fleets current.

For finance leaders assessing AI investments, these operational efficiencies often strengthen the business case as much as productivity improvements.

Turning AI PCs into a sustained advantage

AI PCs offer a clear opportunity, but their impact depends on how deliberately organisations deploy them.

Australian research from EY in August 2025 found 68 per cent of local workers already use AI at work, yet only 35 per cent receive formal training. Organisations that close this gap are better positioned to convert capability into measurable outcomes.

The lesson from previous technology upgrade waves is consistent: returns flow when people understand the tools, trust them and apply them to real work. AI PCs follow the same pattern.

By preparing employees, aligning on-device capability to everyday workflows and managing devices across their lifecycle, organisations can turn AI PCs from a routine refresh into a lasting productivity and efficiency advantage. Find out more about how Lenovo AI PCs can support your organisation’s AI strategy.

Going AI-native: How smart companies turn tech into real customer value

18 December 2025 at 11:15

The transition to an AI-native enterprise demands more than just technology adoption; it requires a fundamental re-architecture of the business model. When a company declares itself AI-native, customers are inevitably confronted with products and services built with or enabled by AI.

While AI is clearly a marketing term for high-value creation in industries like AI TVs and AI smartphones, many companies that don’t produce consumer electronics hesitate. They question whether customers will truly perceive added value from the AI integration. For instance, Lotte Mart, a leading Korean retailer, has begun selling peaches selected by an advanced AI-based sorting system to enhance product quality through deep learning algorithms.

While AI-selected fruit is a clear value proposition, the question remains for cosmetics: Is it simply better cosmetics or is AI-personalized cosmetics genuinely possible? Nevertheless, the mission remains for all businesses to boost internal productivity using advanced AI tools.

The business impact of an AI-native declaration varies dramatically depending on the company’s context. Some categories see a massive impact because AI features directly integrate into the product, while others struggle with unclear customer messaging because AI features don’t clearly manifest in the final product. Based on my experience leading AI projects at Samsung Electronics, Target and Emart, I discovered two distinct paths to AI-native transformation. Here are the necessary strategies, with examples from US companies that made major AI-native declarations around 2025.

How we’re making our products better with built-in AI

The most potent business impact occurs when AI becomes a core feature of the product or service, allowing customers to immediately experience its value. These companies leverage AI to deliver clear messages around personalization, performance optimization and intelligent automation.

My time at Samsung Electronics exemplifies this direct product-centric AI-native shift. I led projects integrating personalized automatic speech-recognition technology leveraging On-Device AI technology and chipsets into smart devices and home appliances. The AI integrated into mobile devices enables real-time translation, image super-resolution processing and customized settings based on learned user behavior without relying solely on the cloud. This redefined the product as an ultimately smarter device through AI, delivering the clear customer value of top-tier performance and intelligent automation.

In the software sector, Microsoft spearheaded a monumental AI-native transition around 2025, fundamentally altering knowledge work. By embedding Copilot, an AI assistant, across the entire Microsoft 365 suite, they innovated the very mechanism of work. Copilot moves beyond simple summaries; it automatically structures and drafts professional reports in Word based on user-provided data. In Excel, Copilot allows users to request data analysis and trend visualization in natural language, eliminating the need for complex formulas.

Microsoft’s AI-native strategy provides the specific, clear value of dramatically enhanced knowledge worker productivity. This focus on core business value has been key to their rising subscription rates and company valuation, as detailed in reports like those from the Second Microsoft Report on AI and Productivity Research.

How we drive AI-powered operations to ensure internal efficiency and long-term product value proposition

For companies where AI features are difficult to embed directly into the product or where customers don’t heavily factor AI adoption into their purchasing decisions, maximizing internal operational efficiency becomes the primary path to business impact. These companies must use advanced AI tools to improve their cost structure and service quality, then pass these benefits to the customer as competitive pricing or enhanced speed and accuracy.

My experience leading projects at Target (the #2 retailer in USA) and Emart (the #1 retailer in South Korea) highlights this strategy of indirect value creation. At Target, I led the enhancement of the AI-powered demand forecasting and inventory management system. The AI model analyzed numerous variables to minimize losses from both stockouts and overstocking. This efficiency indirectly translated into customer trust: the products they want are always available at the right price.

In the omnichannel strategy connecting Emart and SSG.COM, AI-optimized logistics and dispatching to ensure the fastest and most accurate delivery. Customers didn’t focus on the AI’s presence; they reacted positively to the resulting value: the convenience of receiving fresh goods on time.

Beyond retail, major financial institutions like JPMorgan Chase focus their AI-native efforts on internal efficiency and risk management. They leverage AI to enhance their fraud detection systems, enabling real-time detection of subtle pattern changes to protect customer assets. Furthermore, AI models analyze vast amounts of financial data to predict regulatory changes and market risks, leading to operational cost savings.

Their customer message focuses on accuracy and trust, asserting that AI keeps customer money safest and invests it most efficiently. Maximizing internal efficiency through AI-native transformation secures long-term competitive advantage and provides the foundation for delivering sustainable value to customers.

Clear strategy can make AI-native vision a success

The success of an AI-native transition hinges on the company’s strategic choices. Businesses must analyze their core competencies and customer touchpoints to clearly decide whether AI should be the engine of their product or the foundation of their operations.

Returning to the cosmetics industry, where customer value perception is uncertain, the AI-native shift found a breakthrough in personalization. Beauty companies like L’Oréal use AI skin diagnostic technology to analyze a customer’s skin condition, lifestyle and even micro-environmental factors. This data enables AI to formulate a customized serum perfectly optimized for that individual from potentially hundreds of thousands of combinations.

Here, AI isn’t making a better product; it’s providing a unique value previously unattainable. The AI-native declaration, therefore, redefines customer value by offering an experience that is made possible only by AI.

Ultimately, a successful AI-native transition requires clear answers to two core questions for the customer:

  1. How does AI fundamentally innovate the product/service itself? (e.g., Samsung Electronics’ AI chips, Microsoft’s Copilot)
  2. How are the benefits of AI-driven internal efficiency passed on to the customer, directly or indirectly? (e.g., Target’s competitive pricing, JPMorgan Chase’s asset security)

AI-native is no longer optional; it is the strategic imperative for survival. Companies must select the strategy that most effectively integrates AI into their business model and translates that value into measurable business impact.

Transforming business with AI: Innovating products and maximizing efficiency

AI-native transformation signifies a fundamental redefinition of corporate value, driven by two main pillars: innovation at the customer touchpoint and optimization of internal operations.

Direct product value through AI-native integration

The strategy of using AI as the core product engine delivers direct innovative value to the customer. As seen with Samsung Electronics’ On-Device AI, AI optimizes product performance and functionality in a user-customized way, maximizing differentiation from conventional products.

This provides the customer with a new dimension of experience and forms the basis for high-value creation. When AI fundamentally innovates the product, the AI-native declaration becomes a powerful market signal.

Indirect value through internal AI-native integration

In contrast, the strategy of deploying AI for internal operations, such as demand forecasting, inventory management and logistics optimization (as exemplified by Target and Emart), aims at maximizing efficiency. AI reduces operating costs and improves the accuracy and speed of services. The result is returned to the customer as an indirect benefit, such as more reasonable pricing or faster delivery. In these cases, the customer message should focus not on the presence of AI, but on the superior service quality made possible by AI.

CTO/CIO’s action items for AI-native transformation

As CTO, leading the AI-native transformation comes to me as another level of pressure on leadership that spans technology roadmaps, organizational culture and data strategy. Here are concrete action items for successfully turning the enterprise into an AI-native company.

  • Mandate the clarity of the business impact path: Before initiating any AI project, the CIO must strategically distinguish whether the AI will enhance product competitiveness or operational efficiency, setting clear key performance indicators for each. Not every AI investment can share the same goals.
  • Establish a unified data fabric: AI model performance relies on data quality and accessibility. The CIO’s immediate priority must be to unify and standardize siloed data, building a single, accessible data fabric that AI can utilize company-wide. Without this foundation, training advanced AI models is impossible.
  • Ensure organization-wide AI tooling and education: As demonstrated by Microsoft’s Copilot, AI-native is not limited to data scientists. The IT department must widely deploy generative AI and collaboration tools and provide structured training so all employees can easily leverage AI tools to boost productivity. This accelerates internal innovation.
  • Prioritize responsible AI governance: AI models that make biased or opaque decisions can severely damage corporate trust. The CIO must proactively establish and enforce a company-wide AI governance framework covering fairness, transparency, security and data privacy standards. This is critical, especially in sensitive sectors like finance.
  • Strategically decouple from legacy systems: AI-native applications often clash with the inflexible legacy IT infrastructure. The CIO must plan a roadmap for gradually separating core AI-based services from legacy systems, transitioning to a cloud-based modern architecture that allows for the agile adoption and testing of new AI technologies.

The journey to becoming AI-native is a comprehensive transformation of technology, organization, processes and the entire business model.

This article is published as part of the Foundry Expert Contributor Network.
Want to join?

AI-powered learning ecosystems: A guide to workforce upskilling

18 December 2025 at 09:45

In my work designing and managing EdTech platforms for continuing education (credit & non-credit), higher degree education and executive education programs, I’ve witnessed a fundamental shift in how organizations approach workforce development. The conversation has moved beyond traditional training catalogs to something far more dynamic: personalized, data-driven learning ecosystems powered by artificial intelligence.

My expertise lies in creating revenue-generating platforms that serve B2B, B2C and B2I markets, with a particular focus on Salesforce-led transformations. Through this lens, I’ve seen firsthand how technology infrastructure decisions shape learning outcomes and business results.

The rise of B2B upskilling partnerships

Before diving into technology, let’s address the market opportunity that’s driving this transformation. Enterprises increasingly partner with academic institutions and corporate learning providers to deliver upskilling programs for clients, vendors and partners. These B2B and B2I learning ecosystems represent a strategic growth area for educational institutions.

In my experience working with executive education programs and non-credit continuing learning, successful B2B partnerships share three defining characteristics:

  • Strategic data integration: AI delivers value only when it has access to unified data — from HR records to CRM insights to content performance metrics. I’ve built ecosystems where Salesforce serves as the central nervous system, connecting learner data, engagement metrics and business outcomes in real time.
  • Flexible, modular program design: Your corporate clients need learning that aligns with changing projects and market demands. The days of rigid, semester-long programs are over. Stackable credentials, micro-credentials and just-in-time learning modules are what drive enrollment and completion.
  • Scalable operational automation: Automated enrollments, invoicing, certificate generation and progress tracking free up your team to focus on engagement and relationship building rather than administrative logistics.

For example, I worked with a client in the finance sector who used Salesforce and an AI-based analytics layer to identify emerging skill gaps in their client organizations. Within weeks, they could target learning campaigns to specific roles and departments — transforming their learning platform from a passive content library into an active business enabler. Their clients saw this as added value, which strengthened partnerships and opened doors for additional revenue streams.

This is the opportunity: educational institutions that build robust B2B learning ecosystems can create new revenue channels while deepening client relationships. But to capitalize on this, you need the right technological foundation.

The shift from LMS to learning ecosystems

For years, most organizations relied on Learning Management Systems to deliver and track training. These platforms served a purpose — until they didn’t. Traditional LMS platforms were static and compliance-driven, designed more for content administration than for continuous development.

But the modern enterprise operates in constant flux. Skills that were relevant three years ago may already be obsolete. According to the World Economic Forum’s Future of Jobs Report, 44% of workers’ core skills are expected to change by 2027.

This urgency has driven the rise of learning ecosystems — integrated environments that connect content, data, AI and collaboration tools across the enterprise. These ecosystems bring together:

  • HR systems for workforce planning and skill mapping
  • CRM tools for managing B2B client relationships and enrollment pipelines
  • Learning platforms for content delivery and assessment
  • External content providers for specialized subject matter
  • Analytics engines for predictive insights and personalization

When I helped design a Salesforce-integrated ecosystem for an executive education provider, our goal wasn’t just to track enrollments — it was to deliver a cohesive experience that blended customer data, learner preferences and engagement analytics. The result was a 40% improvement in learner re-enrollment rates and significantly higher course completion rates.

AI as the engine of learning transformation

AI is the catalyst driving this evolution. It powers everything from intelligent content curation to predictive analytics on workforce readiness. For CIOs in the education domain, AI represents both an opportunity and a responsibility — to deploy technology that genuinely enhances learning outcomes while maintaining ethical standards.

Here’s where I’ve seen AI deliver measurable impact:

Adaptive learning and personalization

Using AI models, platforms can now assess how a learner interacts with content — how fast they progress, where they struggle, what motivates them — and then dynamically adjust the experience. When I implemented an AI-based recommendation engine for a business school client, the platform started suggesting courses and modules tailored to each learner’s goals and prior achievements. Within six months, engagement time rose by 15% because learners felt their development path was truly their own.

Intelligent content curation

AI can analyze vast content libraries and match learners with the most relevant materials based on their role, industry and skill level. This reduces time-to-competency and improves knowledge retention.

Predictive analytics for intervention

AI models can identify at-risk learners before they disengage, enabling proactive support. In one engagement with a global professional services firm, we reduced dropout rates by nearly 25% by flagging declining activity patterns and automatically adjusting content difficulty.

The same principles are reshaping higher education. AI-based technologies in higher education are transforming course design, student support and faculty efficiency. Those same capabilities — intelligent automation, personalization and analytics — are now extending into enterprise learning and B2B upskilling partnerships.

From reactive to predictive: The analytics advantage

Perhaps the biggest advantage AI brings to enterprise learning is the ability to move from reactive measurement to predictive insight.

Traditional learning analytics tell you what happened:

  • Course completions
  • Test scores
  • Satisfaction ratings
  • Time spent in modules

But AI-powered analytics tell you what’s likely to happen:

  • Which learners might drop out of a program
  • Which skills are trending in specific industries
  • What learning paths correlate with better job performance
  • Where your B2B clients are likely to need upskilling support

According to LinkedIn’s 2024 Workplace Learning Report, organizations leveraging skill analytics and AI-based recommendations see higher employee retention and business alignment.

I’ve seen this firsthand. The AI doesn’t get tired, doesn’t miss patterns and can monitor hundreds or thousands of learners simultaneously. This scalability is crucial for educational institutions serving multiple B2B clients across different industries.

Building the foundation for AI-enabled learning ecosystems

If you’re a CIO looking to embrace AI in learning, start with a strategic foundation rather than a tech-first mindset. Based on my experience with Salesforce-led transformations and EdTech platform design, five enablers make the difference between a promising pilot and a scalable ecosystem:

1. Unified data architecture

Integrate HR, CRM and LMS data to provide a 360-degree view of learners and performance outcomes. In my projects, this integration is always the foundation — without it, AI can’t deliver personalized experiences. Key considerations include:

  • API connectivity between systems
  • Data governance frameworks
  • Real-time synchronization capabilities
  • Master data management for learner profiles

2. AI-ready infrastructure

Choose platforms with open APIs and built-in AI services that can evolve with your needs. I consistently recommend Salesforce for this reason — it offers the flexibility to integrate AI tools while maintaining a customer-first approach. Look for:

  • Cloud-native architecture
  • Pre-built AI/ML capabilities
  • Integration with external AI services
  • Scalability to support growing learner populations

3. Governance and ethics

Establish clear policies on data privacy, bias management and transparency in AI-driven recommendations. Your B2B clients will ask about this, so get ahead of it. Essential elements include:

  • Data privacy compliance (GDPR, FERPA, etc.)
  • Algorithmic transparency
  • Bias detection and mitigation protocols
  • Clear consent mechanisms

4. Experience design

Focus on learner journeys, not just content delivery. AI can only enhance what’s human-centered. I always start with journey mapping before we talk about technology. Consider:

  • Learner personas and use cases
  • Pain points in the current experience
  • Moments that matter for engagement
  • Mobile-first design principles

5. Continuous iteration

AI models improve with feedback — use analytics to refine learning experiences over time. This isn’t a set-it-and-forget-it transformation. Build processes for:

  • Regular model retraining
  • A/B testing of learning interventions
  • Feedback loops from learners and instructors
  • Performance monitoring and optimization

These foundations ensure that AI isn’t just an add-on but an embedded capability that scales as your organization grows.

Human plus machine: A blended learning future

Despite all the automation and intelligence AI brings, the human element remains central. Learning is emotional — it’s about motivation, curiosity and relevance. AI enhances these experiences by removing friction, personalizing content and freeing instructors to focus on higher-value interactions.

In executive education programs, I’ve seen faculty use AI-driven dashboards to monitor learner sentiment and progress. This enables them to step in at the right moment with coaching, rather than relying solely on post-course surveys. The technology doesn’t replace the educator — it empowers them.

The same holds true for corporate learning:

  • AI handles repetitive administrative tasks — certificate generation, scheduling follow-ups, summarizing discussions
  • Human mentors and managers drive accountability and context
  • Faculty focus on critical thinking, problem-solving and relationship building
  • Technology enables personalization that would be impossible manually

The magic happens when you combine the scalability of AI with the empathy of human connection.

Why CIOs must lead this transformation

As a CIO in the education domain, you’re uniquely positioned to shape the future of learning ecosystems. You oversee the infrastructure that powers learning and have the mandate to ensure that technology investments align with institutional strategy and mission.

In many of the transformations I’ve led, technology leadership sponsorship was the tipping point. When technology and academic leaders collaborate, the focus shifts from “training as an expense” to “learning as a growth multiplier.” That shift in mindset opens up budget, resources and organizational support.

Your role is critical in several ways:

  • Infrastructure decisions: Choosing platforms that can scale and integrate
  • Data strategy: Ensuring systems talk to each other and data flows freely
  • Security and compliance: Protecting learner data and institutional reputation
  • Innovation leadership: Bringing emerging AI capabilities to academic partners
  • Vendor management: Selecting partners who understand education technology

As AI capabilities expand — generative learning content, conversational tutoring and skill graph analytics — CIOs will play an even greater role in integrating these innovations responsibly and effectively.

The path forward

AI isn’t just digitizing learning — it’s redefining how educational institutions grow talent, build capability and create competitive advantage in B2B markets.

What excites me most is not the technology itself, but what it enables: a learning culture that’s adaptive, inclusive and insight-driven. When done right, AI-powered learning ecosystems don’t replace human potential — they accelerate it.

We’ve moved past the era of compliance training. The future belongs to institutions that use AI to:

  • Deliver learning that adapts to each individual
  • Predict and prevent learner disengagement
  • Scale personalized experiences across thousands of learners
  • Generate actionable insights for continuous improvement
  • Create new revenue streams through B2B partnerships

For educational institutions, this means stronger partnerships, more capable learners and measurable business impact. And for those of us building these ecosystems, it means we’re not just implementing technology — we’re enabling transformation.

This article is published as part of the Foundry Expert Contributor Network.
Want to join?

❌
❌