Normal view

There are new articles available, click to refresh the page.
Today — 9 December 2025IT

Supporting sustainability in IT

8 December 2025 at 23:00
In this week’s edition of Computer Weekly, there is a focus on IT sustainability, as we dig into how to ensure the networking infrastructure underpinning our artificial intelligence workloads are as green as possible. We also speak to the chief sustainability officer of Genesys about how going green is helping the cloud software provider achieve its business objectives. With the fallout from the Autumn Budget still being keenly felt, we find out more about where the £300m promised to fund improvements in NHS technology is really going. And in the second of our three buyer’s guide features on self-service developer tools, we shine a light on how the technology can help organisations revamp their DevOps workflows. Read the issue now.

“실시간 데이터 기술 경쟁 분기점” IBM, 데이터·자동화 포트폴리오 확장 위해 컨플루언트 인수

9 December 2025 at 02:56

IBM은 AI 애플리케이션 구축을 위한 도구 포트폴리오를 확장하기 위해 클라우드 네이티브 기반 기업용 데이터 스트리밍 플랫폼 컨플루언트(Confluent) 인수에 합의했다.

IBM은 8일 공식 보도자료를 통해 컨플루언트가 IBM 하이브리드 클라우드와 AI 전략에 자연스럽게 부합한다며, 이번 인수가 ‘포트폴리오 전반에서 상당한 제품 시너지’를 이끌 것으로 기대한다고 밝혔다.

컨플루언트는 여러 데이터 소스를 연결하고 데이터를 정제해 일관된 형태로 활용할 수 있도록 지원하는 기술을 제공한다. 이를 통해 고객은 아파치 카프카 기반의 오픈소스 분산 이벤트 스트리밍 플랫폼 위에서 서비스를 구축할 수 있어, 직접 서버 클러스터를 구매하거나 관리해야 하는 부담을 덜 수 있다. 사용 기업은 클러스터 단위로 월 구독료를 지불하며, 저장 데이터와 데이터 입출력량에 따라 추가 비용을 부담하는 방식이다.

IBM은 이번 거래를 110억 달러(약 16조 원) 규모로 산정했으며, 인수는 내년 중반 마무리될 것으로 보고 있다.

컨플루언트의 설립자이자 CEO인 제이 크렙스는 직원들에게 보낸 이메일에서 “IBM은 우리가 그리는 미래와 동일한 방향을 보고 있다”라며 “기업은 모든 비즈니스 영역에서 데이터가 자유롭고 안정적으로 흐르는 지속적이고 이벤트 중심의 인텔리전스를 기반으로 운영될 것”이라고 전했다.

컨설팅 기업 인포테크리서치그룹의 선임 자문가 스콧 비클리는 이번 인수가 IBM에 매우 유리한 결정이라고 평가했다. 비클리는 “컨플루언트는 실시간 데이터를 모니터링할 수 있는 역량을 제공해 IBM의 차세대 AI 플랫폼인 왓슨X 플랫폼의 부족했던 부분을 실질적으로 보완한다”라고 설명하며, 컨플루언트의 기술이 업계 표준 실시간 데이터 스트림 관리·처리 방식에 기반하고 있다는 점도 언급했다.

비클리는 또 “IBM은 이미 AI 모델을 구축하고 학습하는 데 필요한 주요 요소들을 갖추고 있다”라며 “컨플루언트는 조직 전체에서 지속적으로 생성되는 실시간 데이터를 모델에 공급하는 연결 조직 역할을 하게 된다. 이를 통해 실시간 데이터에 반응할 수 있는 더 정교한 AI 에이전트와 애플리케이션 개발이 가속화될 것”이라고 분석했다.

그는 이번 인수가 최근 IBM의 인수 중 가장 큰 규모이며, 장기적 전략의 일환이라고 지적했다. 비클리는 “IBM은 스노우플레이크와 데이터브릭스 같은 AI 네이티브 빅데이터 기업과 경쟁하기 위해 선제적으로 움직이고 있다”라며 “서로 다른 독립 구성 요소를 조합하는 방식보다, 완전한 수직 통합형 AI 플랫폼인 왓슨X가 기업 고객에게 더 매력적일 것이라는 판단을 내린 상태”라고 전했다.

양측 모두에게 이익

비클리는 이번 결정이 레드햇 인수(345억 달러)와 최근의 해시코프 인수(64억 달러)처럼 IBM이 그동안 추진해 온 전략과 흐름을 같이한다고 설명했다. 리눅스, 테라폼·볼트, 카프카 등 지배적인 오픈소스 표준 위에 구축된 이들 기술을 더하며, IBM은 ERP 벤더나 개별 기능 위주의 포인트 솔루션과 구분되는 독립형 수직·하이브리드 클라우드 전략을 완전한 AI 스택 형태로 제공할 수 있게 됐다.

가트너 수석 디렉터 애널리스트 앤드루 험프리스도 IBM MQ를 보유한 IBM이 이벤트 브로커 시장에서 이미 컨플루언트와 경쟁하고 있다고 짚었다. 그는 “일부 기능은 겹치지만 IBM MQ와 카프카는 서로 다른 문제와 활용 사례를 다룬다”라며 “IBM은 두 제품을 결합해 이벤트 기반 아키텍처 전반을 포괄하는 완성도 높은 이벤트 브로커 제품군을 제공할 기회를 얻게 됐다”라고 말했다.

왓슨X의 핵심 구성요소 확보

컨설팅 기업 퓨처럼리서치 부사장 미치 애슐리는 컨플루언트 인수가 왓슨x 기술에서 빠져 있던 핵심 요소를 채우며, IBM에 실시간·관리형 데이터 흐름을 뒷받침하는 오픈소스 기반 기술 기반을 제공한다고 평가했다.

그는 또한 이번 인수가 최근 IBM의 데이터 관련 인수들을 하나의 일관된 아키텍처로 묶는 역할을 한다고 설명했다. 애슐리는 “여기서 중요한 가치는 단순히 카프카라는 기술이 아니라, IBM의 AI 포트폴리오 전반에 신선하고 문맥 있는 데이터를 일관성과 통제력을 갖춘 형태로 전달할 수 있는 능력”이라고 강조했다.

또 다른 컨설팅 기업 그레이하운드리서치 최고 애널리스트 산치트 비르 고기아는 인수 발표 직후 발간한 보고서에서 이번 인수가 “가격이나 단순한 포트폴리오 확장을 넘어서는 변곡점”이라고 분석했다. 그는 “이 인수가 보여주는 진짜 변화는 현대 디지털 기업의 ‘생명선’인 실시간 데이터를 누가 통제할 것인가 하는 문제”라고 말했다.

고기아는 이것이 전술적 결정이 아니라 수년간 구축해 온 아키텍처의 전략적 완성이라고 평가했다. 그는 “기업 리더에게 이번 변화는 지도를 바꾸는 일”이라며 “AI는 더 이상 시스템의 가장자리에 머물지 않고 아키텍처 중심으로 이동한다. 컨플루언트는 그 중심을 실시간·상황 인식·연결 상태로 만드는 계층이 될 것”이라고 전망했다. 이어 “이번 인수로 IBM은 예측만 하는 AI가 아니라, 깨끗하고 연결되고 끊임없이 흐르는 데이터에 기반해 ‘듣고 반응하는 AI’를 제공할 수 있게 된다”라고 분석했다.

옴디아 데이터·AI 수석 애널리스트 스티븐 카탄차노도 “지금 주요 기업들은 모두 엔드 투 엔드 데이터 플랫폼을 구축하는 단계에 있다”라고 말했다. 그는 “컨플루언트 인수는 IBM이 정적 데이터와 동적 데이터, 비정형 데이터와 정형 데이터를 모두 다룰 수 있도록 퍼즐의 마지막 조각을 채운 셈”이라고 설명했다. 이어 “기업들은 생성형 AI와 에이전트형 AI를 실시간 데이터와 스트리밍 데이터에 적용하고자 한다. IBM은 시장에서 가장 큰 플레이어를 확보한 것”이라고 덧붙였다.

비클리는 또 컨플루언트의 최근 매출 성장 둔화와 매각 검토 보도 등을 고려하면 인수 시점도 적절했다고 평가했다. 그는 “결국 이번 거래는 양측 모두에게 이익이 되는 결정”이라며 “IBM은 이제 고위험 전략을 택한 셈이고, 최고의 AI 모델을 보유하는 것만으로는 충분하지 않으며 데이터 흐름을 통제하는 능력이 훨씬 중요해질 것이라고 판단했다”라고 말했다.
dl-ciokorea@foundryco.com

AI 도입, 왜 실패할까? 사람의 판단력과 데이터 거버넌스가 필요한 때

9 December 2025 at 02:42

AI를 도입하려 할 때 기업의 목표와 실제 실행 사이의 간극을 메우기 어려울 수 있다. 기업은 제품과 업무 흐름, 전략 전반에 AI를 녹여내려 하지만, 분산된 데이터와 불명확한 계획이라는 걸림돌에 가로막혀 실패하는 경우가 많다.

소프트웨어 개발 기업 아라스(Aras)의 CTO 롭 맥어베니는 “협력 중인 글로벌 제조기업에서 자주 마주하는 어려움이 바로 이 문제다”라고 말했다. 그는 “많은 기업이 AI가 필요하다고 막연히 생각한다. 실제 출발점은 AI가 지원해야 하는 의사결정을 먼저 정의하고, 이를 뒷받침할 적절한 데이터가 준비돼 있는지 확인하는 데 있다”라고 설명했다.

최근 맥킨지가 실시한 글로벌 조사에 따르면, 경영진의 약 3분의 2가 자사 조직이 AI를 비즈니스 전반에 확장하는 데 어려움을 겪고 있다고 답했다. 많은 기업이 파일럿 단계에서 더 나아가지 못하고, 특히 규모가 작은 조직일수록 한계가 더욱 뚜렷하게 나타난다. 파일럿이 성숙 단계로 발전하지 못하면 투자 결정을 정당화하기도 점점 어려워진다.

AI 도입에서 흔히 드러나는 문제는 데이터가 애초에 AI 적용에 적합한 상태가 아니라는 점이다. 기업은 분절된 출처나 정제되지 않은 데이터를 기반으로 복잡한 모델을 구축하려 시도하지만, 기술이 이 격차를 메워줄 것이라는 기대는 대부분 충족되지 않는다.

맥어베니는 “의미 있는 AI 성과를 가로막는 가장 큰 장애물은 데이터 품질, 데이터의 일관성, 그리고 데이터의 맥락이다. 데이터가 사일로에 갇혀 있거나 공통된 기준으로 관리되지 않으면, AI는 그 불일치를 그대로 반영해 신뢰하기 어렵거나 오해를 불러일으키는 결과를 내놓는다”라고 지적했다.

이 문제는 거의 모든 산업에 영향을 미친다. 기업은 새로운 AI 도구에 투자를 확대하기에 앞서, 더 강력한 데이터 거버넌스를 마련하고 품질 기준을 명확히 적용하며, 해당 시스템을 구동할 데이터의 실질적인 소유 주체가 누구인지 분명히 해야 한다.

AI가 주도권을 쥐지 않도록 하기

AI 도입을 서두르는 과정에서 기업은 해결해야 할 핵심 문제가 무엇인지 묻는 근본적인 질문을 놓치곤 한다. 이 질문이 명확하지 않으면 의미 있는 성과에 도달하기 어렵다.

바이스타 크레디트유니온(VyStar Credit Union)의 CTO 아누라그 샤르마는 AI가 특정 비즈니스 문제를 해결하기 위해 활용할 수 있는 도구에 지나지 않는다고 본다. 샤르마는 모든 AI 이니셔티브가 먼저 달성하려는 비즈니스 결과를 명확하고 간결하게 정의하는 데서 시작해야 한다고 강조했다. 그는 팀에 AI가 해결할 수 있는 문제를 분리해 식별하도록 독려하고, 어떤 변화가 발생할지, 누구에게 영향이 미칠지를 경영진이 충분히 이해한 뒤 프로젝트를 추진해야 한다고 조언했다.

샤르마는 “CIO와 CTO는 이런 원칙을 고수함으로써 AI 이니셔티브가 본질에서 벗어나지 않도록 할 수 있다. 화려한 기술과 전략적 목표를 구분할 수 있을 만큼 충분히 논의를 늦춰 현실적인 문제를 해결해야 한다”라고 설명했다.

기업에 AI CoE(Center of Excellence)나 실제 기회를 발굴하는 전담 팀이 있을 때 이런 구분이 훨씬 명확해진다. 이 팀들은 아이디어를 검토하고 우선순위를 설정하며, 프로젝트가 유행이 아닌 실질적 비즈니스 요구를 기반으로 추진되도록 돕는다.

이 팀에는 AI 도입으로 직접 영향을 받는 실무자뿐 아니라, 비즈니스 리더, 법무 및 컴플라이언스 담당자, 보안팀도 참여해야 한다. 이들은 협력해 AI 프로젝트가 충족해야 할 기본 요구사항을 정의할 수 있다.

보안·거버넌스 플랫폼 제니티(Zenity)의 AI 보안·정책 옹호 책임자 케일라 언더코플러는 “요구사항이 사전에 명확해지면, 겉보기에는 매력적이지만 실질적 비즈니스 기반이 부족한 AI 프로젝트에 불필요하게 매달리지 않을 수 있다”라고 설명했다.

언더코플러는 AI CoE에 현재의 AI 리스크 환경을 충분히 이해하는 담당자가 반드시 필요하다고 덧붙였다. 담당자는 각 이니셔티브가 실제로 운영되기 전에 해결해야 할 우려 사항을 파악하고, 중요한 질문에 답할 준비가 돼 있어야 한다.

그는 “팀이 인지하지 못하는 허점이 계획에 숨어있을 수 있다. 특히 보안은 프로젝트 초기부터 반드시 포함돼야 한다. 그래야 보호 장치와 리스크 평가가 사후에 덧붙여지는 것이 아니라, 처음부터 제대로 작동하도록 설계할 수 있다”라고 조언했다.

또한 AI 도입이 실질적 가치로 이어지려면, 명확하고 측정 가능한 비즈니스 성과가 반드시 정의돼야 한다. 클라우드 기반 품질 엔지니어링 플랫폼 람다테스트(LambdaTest)의 데브옵스 및 데브섹옵스 부문 부사장 아카시 아그라왈은 “모든 제안서가 성공 지표를 사전에 명확히 규정해야 한다. AI는 탐색하는 기술이 아니라 적용하는 기술”이라고 언급했다.

아그라왈은 기업이 30일 또는 45일 단위로 정기 점검을 진행해 프로젝트가 비즈니스 목표에 부합하는지 계속 확인해야 한다고 조언했다. 그는 기대에 미치지 못하는 결과가 나온다면 과감하게 재평가하고 현실적인 결정을 내려야 한다고 설명했다. 필요하다면 프로젝트를 중단하는 선택도 고려해야 한다.

아울러 기술이 유망해 보이는 상황에서도 사람의 역할은 반드시 유지돼야 한다. 지속가능 폐기물 솔루션 기업 리월드(Reworld)의 CIO 스리다르 카랄레는 “초기 AI 기반 리드 분류 파일럿에서 사람의 검토 과정을 생략했더니 비효율적인 분류가 발생했다. 즉시 사람의 피드백을 다시 모델에 반영하도록 조정했고, 시스템은 더 정교해지고 정확도가 높아졌다”라고 설명했다.

사람의 검증 없이 결정이 이뤄지면, 기업은 잘못된 가정이나 패턴에 기반해 움직일 위험이 커진다. 목표는 사람을 대체하는 것이 아니라, 사람과 기술이 서로를 강화하는 파트너십을 구축하는 데 있다.

데이터를 전략적 자산으로 다루기

AI가 의도한 대로 작동하도록 만들기 위해서는 효과적인 데이터 관리가 필수적이지만, 이 전제 조건은 종종 간과된다. 올바른 기반을 마련한다는 것은 데이터를 전략적 자산으로 취급해야 한다는 의미다. 즉 데이터를 체계화하고 정제하며, 시간이 지나도 신뢰성을 유지할 수 있도록 적절한 정책을 갖춰야 한다.

앰네스티 인터내셔널(Amnesty International)의 CIO 폴 스미스는 “CIO는 데이터 품질, 데이터의 무결성, 데이터의 적합성에 집중해야 한다”라고 설명했다. 이 단체는 매일 비정형 데이터를 다루는데, 대부분 외부에서 유입되며 품질 편차가 크다. 사내 분석가들은 서로 다른 형식과 조건에서 생성된 문서, 영상, 이미지, 보고서를 끊임없이 검토한다. 그는 방대하고 난해하며 때로는 불완전한 정보를 다뤄온 경험을 통해 철저한 데이터 관리의 중요성을 인식하게 됐다.

스미스는 “결국 비정형 데이터란 존재하지 않는다. 아직 구조가 적용되지 않은 데이터가 있을 뿐이다”라고 말했다. 그는 또한 기업이 강력한 데이터 거버넌스 원칙을 일상적으로 실천해야 한다고 강조했다. 다시 말해 기업은 데이터의 적합성을 점검하고, 완전성·정확성·일관성을 확보하며, 오래된 정보가 결과를 왜곡할 수 있다는 사실을 유념해야 한다.

스미스는 데이터 계보 검증의 중요성도 강조했다. 여기에는 데이터의 출처를 명확히 파악하고, 그 활용이 법적·윤리적 기준에 부합하는지 확인하는 과정이 포함된다. 또한 데이터가 어떻게 수집되거나 변환됐는지를 설명하는 문서를 검토하는 과정도 요구된다.

많은 기업에서 분산된 데이터는 기존 시스템이나 수작업 입력에서 발생한다. 람다테스트의 아그라왈은 “우리는 스키마 표준화, 데이터 계약 준수, 수집 단계 자동 품질 점검, 엔지니어링 전반의 관찰 가능성 통합을 통해 데이터의 신뢰성을 강화하고 있다”라고 설명했다.

데이터에 대한 신뢰가 확립되면 AI 결과 역시 개선된다. 샤르마는 “데이터가 어디서 왔는지, 얼마나 신뢰할 수 있는지 명확히 답하지 못한다면 AI 도입 준비가 되지 않은 것”이라며 “특히 신뢰가 핵심 가치인 금융 산업에서는 잘못된 인사이트를 쫓는 것보다 초기 단계에서 속도를 늦추는 것이 더 낫다”라고 말했다.

카랄레는 리월드에서 ‘단일 진실 공급원(single source of truth)’ 역할을 하는 데이터 패브릭을 구축하고, 각 도메인에 데이터 관리자를 배정했다고 언급했다. 또한 정의와 접근 정책을 쉽게 검색할 수 있는 ‘실시간 업데이트 데이터 사전(living data dictionary)’도 운영하고 있다. 카랄레는 “각 항목에는 계보와 소유권 정보가 포함돼 있어 모든 팀이 누가 책임자인지 명확히 알 수 있고, 활용하는 데이터를 신뢰할 수 있다”라고 말했다.

최우선 과제는 ‘자가 점검’

AI는 데이터에서 발견한 패턴을 증폭하는 특성이 있다. 유용한 패턴뿐 아니라 오래된 편향 역시 강화될 수 있다. 이런 함정을 피하려면 편향이 구조적 문제에서 비롯된다는 사실을 먼저 인식해야 한다.

문제가 뿌리내리는 것을 막기 위해 CIO가 취할 수 있는 조치도 있다. 언더코플러는 “훈련이나 파일럿 단계에서 사용되는 모든 데이터를 면밀히 검증하고, AI가 실제 업무 흐름에 투입되기 전에 기본적인 통제 장치가 마련돼 있는지 확인해야 한다”라고 조언했다.

또한 에이전틱 AI가 기존의 리스크 모델을 어떻게 변화시키는지 세밀하게 이해하는 것도 중요하다. 언더코플러는 “이런 시스템은 새로운 형태의 자율성, 의존성, 상호작용을 도입한다. 따라서 통제 체계도 이에 맞춰 발전해야 한다”라고 말했다.

언더코플러는 강력한 거버넌스 프레임워크가 기업의 모니터링, 리스크 관리, 보호장치 설정을 체계화하는 역할을 한다고 진단했다. 이 프레임워크는 누가 AI 시스템을 감독하는지, 의사결정은 어떻게 기록되는지, 언제 사람이 판단해야 하는지를 정의한다. 기술이 정책보다 더 빠르게 진화하는 환경에서 이 구조는 특히 중요하다.

카랄레는 AI를 감독하는 과정에서 공정성을 측정하는 지표가 중요한 역할을 한다고 설명했다. 이런 지표는 AI 시스템이 서로 다른 집단을 공정하게 대우하는지, 혹은 특정 집단을 의도치 않게 우대하거나 불리하게 만들고 있는지를 파악하는 데 도움을 준다. 그는 공정성 지표를 모델 검증 파이프라인에 포함시킬 수 있다고 덧붙였다.

도메인 전문가 역시 편향되거나 엉뚱한 결과를 내는 모델을 식별하고 재훈련하는 데 핵심적인 역할을 할 수 있다. 이들은 데이터의 맥락을 누구보다 잘 이해하기 때문에 이상 징후를 가장 먼저 발견하는 경우가 많다. 카랄레는 “지속적 학습은 기계에게도 사람에게도 똑같이 중요하다”라고 강조했다.

앰네스티의 스미스 역시 같은 견해를 밝히며, 잠재적 편향을 식별할 수 있도록 직원들을 지속적으로 교육해야 한다고 말했다. 그는 “리스크와 잠재적 피해에 대한 인식을 높여야 한다. 위험을 가장 먼저 차단하는 방어선은 결국 사람”이라고 진단했다.
dl-ciokorea@foundryco.com

칼럼 | AI는 새로운 클라우드···플랫폼 혁신이 말해주는 기술 혁신의 본질

9 December 2025 at 02:30

AI는 클라우드 컴퓨팅이 등장한 이후 가장 강력한 기술적 전환점으로 평가된다. 20년 전 클라우드 플랫폼은 기업이 인프라를 바라보는 방식을 근본적으로 바꿔 놓았다. 지금 이 글을 읽고 있는 바로 이 순간, AI 플랫폼은 기업이 ‘지능’을 인식하는 방식을 다시 쓰고 있다.

두 기술의 흐름은 짚어볼 가치가 충분하다. 2000년대 초 CIO들은 자체 데이터센터를 구축할지, AWS 같은 공유 플랫폼을 신뢰할지를 두고 논쟁을 벌였다. 20년이 지난 지금, 비슷한 질문이 다시 등장했다. 자체 대형언어모델을 구축해야 할까, 아니면 이미 존재하는 모델 위에서 구축해야 할까라는 고민이다.

필자는 클라우드 시대가 남긴 교훈이 여전히 유효하다고 본다. 경쟁력은 인프라를 소유하는 데서 나오지 않는다. 이미 존재하는 플랫폼을 활용하고, 그 위에서 혁신을 쌓아 올리는 데서 나온다. 그 이유를 살펴볼 필요가 있다.

클라우드가 남긴 교훈: 새로 만들지 말고 활용하라

초기 클라우드 서비스가 등장했을 때 가장 널리 주목받은 가치는 속도였다. 개발자는 몇 달이 아니라 몇 분 만에 애플리케이션을 구동할 수 있었다.

하지만 속도만이 전부는 아니었다. 클라우드의 진짜 혁신은 전략적 차원에서 일어났다. 인프라 관리를 내려놓자 기업은 경험과 서비스 혁신에 더 많은 역량을 투입할 수 있게 됐다.

반면 일부 기업은 ‘하이퍼스케일러’를 따라 하겠다며 자체 클라우드를 처음부터 구축하려 했지만, 플랫폼 진화 속도를 따라잡기가 얼마나 어려운지 곧 깨닫게 됐다. 비용은 끝없이 상승했고 개발 속도는 오히려 떨어졌다. 반대로 공용 플랫폼을 기반으로 삼는 ‘활용 모델’을 수용한 기업은 더 빠르게 움직였고 비용도 적게 들었다.

AI도 지금 똑같은 갈림길에 서 있다. 모든 것을 처음부터 직접 만들려는 본능은 익숙한 흐름이지만, 클라우드 시대와 마찬가지로 최선의 선택이라고 보기는 어렵다. 대형언어모델은 클라우드 시대의 컴퓨팅·스토리지와 같은 새로운 디지털 인프라 계층이 됐다. 강력하고 확장 가능하며, 집단적 사용을 통해 지속적으로 고도화되는 일종의 기반 유틸리티다.

이제 인프라 자체를 소유하는 것은 더 이상 차별화 요소가 되지 않는다. 사실 과거에도 그랬다. 기술 리더에게 필요한 질문은 “우리가 직접 모델을 만들 수 있는가?”가 아니다. “기존 모델 위에서 우리가 제공할 수 있는 고유한 가치는 무엇인가?”라는 점이다.

개방형 생태계의 힘

클라우드의 부상은 특정 제품이 아닌 생태계 구축에서 시작됐다. 필자가 AWS에서 일할 당시 직접 확인한 가장 큰 혁신은, 누구나 그 위에서 새로운 것을 만들 수 있도록 설계된 아키텍처였다. 모든 API 호출이 또 다른 서비스의 구성 요소가 될 수 있었다.

AI 플랫폼도 같은 흐름을 따르고 있다. 오픈AI, 앤트로픽 등은 개방형 인터페이스와 SDK를 제공해 ‘지능’을 접근 가능한 서비스 형태로 바꾸고 있다. 이 개방성은 개발자, 데이터 과학자, 비즈니스 분석가 등 누구나 혁신 과정에 기여할 수 있는 생태계를 만들어내며, 축적된 혁신을 가속한다.

오픈 생태계와 보조를 맞추는 기업은 공유된 진전의 혜택을 고스란히 누린다. 전체 기술 스택을 소유하지 않더라도 자유롭게 실험할 수 있고, 기반 기술이 발전할 때마다 더 빠르게 움직일 수 있다. 반대로 폐쇄형 시스템은 쉽게 정체된다. 혁신을 내부 역량에만 의존해야 하므로 성장 속도는 느려지고 비용은 증가하며 인재 유출도 심화된다.

필자가 커리어 전반에서 관찰한 바로는, 미래는 사용자를 공동 창작자로 대우하는 플랫폼에 돌아갈 것이다. 사용자 한 명 한 명이 기여자로 기능하기 때문에 제품과 생태계의 확장 속도는 기하급수적으로 높아진다.

피드백 기반 성장

피드백은 기술 진화를 추진하는 데 비해 지나치게 평가절하된 동력이다. AWS는 로드맵의 90%가 고객 요청에서 나온다고 밝힌 바 있다. 필자 역시 그곳에서 일하며 개선이 사용을 늘리고, 사용이 새로운 피드백을 만들고, 그 피드백이 다시 혁신을 일으키는 선순환 구조를 직접 경험했다.

AI 시스템도 같은 구조로 움직인다. 강화학습, 파인튜닝, 사용자 활동 데이터 등 모든 요소가 모델의 진화를 촉진한다. 하나의 질문, 하나의 수정, 하나의 프롬프트가 다음 응답을 더 정교하게 만드는 신호가 된다.

이런 피드백 기반 성장은 이제 엔터프라이즈 AI 도입 전반으로 확장되고 있다. 각 업무 흐름, 대화형 상호작용, 모델 출력 하나하나가 학습 기회가 된다. 사용자–데이터–개발자 간 피드백 루프를 의도적으로 설계하는 조직은 AI를 정적인 도구로 다루는 조직보다 훨씬 빠르게 시스템을 진화시킨다. 전자가 업계를 주도하는 조직이 되고, 후자는 자연스럽게 뒤처지게 된다.

현장에서 이를 구현하려면 AI 활용 사례에 정량 지표를 심고, 정확도와 맥락을 지속적으로 모니터링하며, 문제가 발생했을 때 빠르게 ‘루프를 닫는’ 구조를 세워야 한다. 피드백은 단순 지원 기능이 아니라 지속 학습을 위한 전략적 메커니즘이다.

가장 앞서 있는 AI 조직은 가장 큰 모델을 가진 조직이 아니다. 가장 촘촘한 피드백 순환 구조를 운영하는 조직이다.

엔터프라이즈 플랫폼 사고

이 모든 논의는 CIO와 기술 리더에게 중요한 메시지를 전달한다. 조직 내부에서도 플랫폼 사고를 적용해야 한다는 점이다. 필자는 기업을 여러 시스템의 묶음으로 바라보는 대신, 다양한 부서가 그 위에서 새로운 가치를 구축할 수 있는 하나의 플랫폼으로 인식하라고 조언한다. 데이터 파이프라인, 거버넌스 프레임워크, 통합 패턴처럼 재사용 가능한 AI 역량을 마련해 각 사업 부문이 안전하게 활용할 수 있도록 하고, 팀이 실험할 수 있는 가드레일과 API를 제공해 분산된 혁신을 촉진해야 한다.

클라우드 시대에 셀프서비스 인프라가 개발 문화를 바꿨듯, AI 시대에는 셀프서비스 지능이 같은 변화를 이끌고 있다. 마케팅 조직은 비정형 데이터에서 통찰을 추출하고, HR은 온보딩을 위한 지식 탐색을 자동화하며, 재무 조직은 AI 기반 예측으로 경영 성과를 모델링하는 식이다. 각 기능 조직은 공통 기반 위에서 자사의 도메인 전문성을 더해 고유한 가치를 만들어낸다.

CIO는 이러한 과정을 조율하는 핵심 역할을 맡는다. 상호운용성과 보안, 윤리적 사용을 보장하는 동시에 조직별 혁신이 자유롭게 일어날 수 있도록 환경을 조성해야 한다. 통제와 창의성 사이의 균형을 어떻게 잡느냐가 차세대 엔터프라이즈 리더의 역량을 가르는 기준이 될 것이다.

재발명 함정 피하기

특히 기술 중심 조직에는 모든 것을 내부에서 새로 만들고 싶은 유혹이 존재한다. 이렇게 하면 더 안전하고 통제 가능하다고 느끼기 때문이다. 그러나 역사적 사례는 이러한 본능이 얼마나 쉽게 발전 속도를 늦출 수 있는지를 보여줬다.

자체 프라이빗 클라우드를 구축하려 했지만, 퍼블릭 클라우드의 규모와 속도를 따라가지 못해 실패한 기업은 적지 않았다. AI도 마찬가지다. 독자 모델을 학습하려면 막대한 연산 자원과 인재가 필요하고, 기반 플랫폼은 개별 기업이 따라잡기 힘든 속도로 발전한다.

더 효율적인 전략은 애플리케이션 계층에서 차별화하는 것이다. 데이터 전략, 사용자 경험, 도메인 특화 통합 등 기업만이 제공할 수 있는 고유 가치를 강화하는 방향으로 지능화 역량을 구축하고, 범용적 사고 능력은 이미 성숙한 플랫폼에 맡기는 편이 훨씬 효과적이다.

성공하는 조직은 생태계 전반에서 AI를 조율하며 활용하는 곳이지, 모든 것을 내부에서 재발명하려는 곳이 아니다.

리더십 과제

AI는 한 세대에 한 번 등장하는 기술 전환점이다. 하지만 과거의 주요 기술 전환이 그랬듯, 승자는 역사의 교훈을 올바르게 해석한 기업이 된다.

클라우드는 ‘소유’보다 ‘활용’이, ‘사일로’보다 ‘생태계’가, 고정된 계획보다 ‘피드백’이 강력하다는 점을 분명히 보여줬다. AI는 이러한 교훈을 새로운 영역으로 확장하고 있을 뿐이다.

CIO와 기술 리더에게 요구되는 과제는 명확하다. 학습하는 아키텍처를 구축하고, 오픈 생태계를 활용해 혁신 속도를 높여야 한다. 피드백을 문화적 습관으로 만들고, 이미 플랫폼이 제공하는 기능을 내부에서 반복 개발하는 대신 기업 고유의 비즈니스 문제 해결에 인재를 집중해야 한다.

AI가 기업을 변화시킬 것인지는 더 이상 질문이 아니다. 변화는 이미 일어나고 있다. 지금 중요한 질문은, 그 변화가 지속 가능하고 윤리적이며 빠르게 일어나도록 ‘올바른 플랫폼’을 기반으로 하고 있는가이다.

혁신은 무엇을 소유하느냐가 아니라 무엇을 가능하게 하느냐에서 시작된다는 사실을 이해하는 리더가 미래를 이끌 것이다.
dl-ciokorea@foundryco.com

Embracing sovereign AI in the financial services industry

9 December 2025 at 02:18

Generative AI (GenAI) is reshaping industries worldwide, prompting many nations to adopt sovereign AI strategies to protect data and maintain control over AI development. This shift increases the need for secure, locally integrated server and storage solutions.

Sovereign AI is especially critical for regulated sectors such as government and financial services, where data-intensive workloads continue to grow. ASUS collaborated with AMD to deliver end-to-end solutions—enterprise servers, AI, cybersecurity, and cloud—to help organizations boost efficiency, strengthen data security, and improve TCO. With experience building national computing centers and partnering with AMD, ASUS enables secure, AI-driven transformation.

Transforming the financial industry

At the ASUS AI Tech event, industry leaders explored how ASUS AI infrastructure enables secure, AI-driven transformation in a rapidly evolving market.

“From hardware servers to software platforms, our expertise has helped our customers, particularly in the public sector and financial services industry, explore and leverage the power of sovereign AI,” says Paul Ju, Senior Vice President, Co-Head of Open Platform BG, ASUS.

Modern AI workloads and real-time financial services demand higher performance than traditional storage can deliver. Sovereign AI supports real-time risk assessment, market analysis, and high-performance computing with strong security and compliance.

ASUS and AMD provide end-to-end solutions that combine enterprise-grade servers, AI, cybersecurity, and cloud technologies—helping institutions manage data securely and optimize workloads.

A leading financial ISV in APAC upgraded its securities quotation system using ASUS RS700A-E13-RS4U servers with AMD EPYC™ 9005 processors, achieving full software compatibility, zero downtime, and improved trading efficiency.

Similarly, an Asian brokerage firm built a millisecond-level trading platform by pairing its open-source trading system with ASUS RS501A-E12-RS4U servers powered by AMD EPYC™ 9005 processors—ensuring fast execution, strong stability, and a competitive edge.


ASUS AI Infrastructure solutions, powered by AMD EPYC™ 9005 Processors

AMD EPYC™ processors deliver powerful and reliable performance for financial workloads, especially in quantitative finance and risk management. Using QuantLib v1.35 for benchmarking, systems powered by AMD EPYC showed superior performance and performance-per-watt, helping IT teams consolidate data center resources, cut software costs, and improve TCO.1

Benchmarks with open-source tools such as KX Nano further proved EPYC’s ability to handle large-scale time-series data and multi-threaded workloads, enabling higher throughput and efficient resource use. AMD continues to work with partners to meet the evolving needs of the financial services industry.2

Powered by industry-leading AMD EPYC™ 9005 processors, ASUS AI servers deliver unparalleled performance and density for AI-driven, mission-critical data center workloads. According to the latest standard benchmark tests, the RS520QA-E13 server achieved exceptional Peak Result and Base Result scores in the 2U4N configuration of the SPEC CPU® 2017 benchmark.3 Together, ASUS and AMD provide the reliability, throughput, and scalability that modern financial services require.

srcset="https://b2b-contenthub.com/wp-content/uploads/2025/12/Asus_Foundry-BP_Image_1200x627.jpg?quality=50&strip=all 1200w, https://b2b-contenthub.com/wp-content/uploads/2025/12/Asus_Foundry-BP_Image_1200x627.jpg?resize=300%2C157&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/12/Asus_Foundry-BP_Image_1200x627.jpg?resize=768%2C401&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/12/Asus_Foundry-BP_Image_1200x627.jpg?resize=1024%2C535&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/12/Asus_Foundry-BP_Image_1200x627.jpg?resize=150%2C78&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/12/Asus_Foundry-BP_Image_1200x627.jpg?resize=854%2C446&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/12/Asus_Foundry-BP_Image_1200x627.jpg?resize=640%2C334&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/12/Asus_Foundry-BP_Image_1200x627.jpg?resize=444%2C232&quality=50&strip=all 444w" width="1024" height="535" sizes="auto, (max-width: 1024px) 100vw, 1024px">

Table 1: 2U4N Configuration powered by AMD EPYC™ 9005 processors in SPEC CPU® 2017 Benchmark

These include:

  • Real-time insights with HPC data center servers

Accelerate risk modeling and AI forecasting for trading and market analysis with the ASUS RS520QA-E13 multi-node server, designed for HPC, financial analytics, and cloud workloads. Supports faster trading decisions and real-time market response.

  • Compliance-ready with scalable storage

Ensure regulatory compliance with high-capacity, reliable all-flash storage like the RS501A-E12 with WEKA. Starting from 8 nodes, it offers 1–2.2PB capacity with high read/write throughput—ideal for multi-pipeline AI, HPC, and financial workloads.

  • Data protection with robust, comprehensive security
    Protect sensitive financial data with comprehensive security from infrastructure to applications. ASUS Control Center enables centralized server management, enhancing security and compliance for financial operations.

Engineered for versatile workloads, ASUS delivers exceptional performance for demanding AI tasks. With optimized space and power efficiency, our comprehensive server portfolio enhances HPC capabilities and accelerates AI-driven financial digitalization.

Click here to learn how ASUS empowers financial institutions with robust hardware, intelligent software, and proactive support.

1 Introducing a New QuantLib Benchmark

2 Competitive KX Nano Benchmarking on AMD EPYC Processors

3 Results are based on the latest SPEC benchmark tests conducted in October 2025.

“클라우드 퍼스트에서 클라우드 스마트로” CIO의 인프라 전략이 바뀐 이유

9 December 2025 at 01:27

그동안 업계에서는 애플리케이션과 워크로드에 클라우드 퍼스트 전략을 적용하면 민첩성과 확장성, 비용 효율성 측면에서 이점을 얻을 수 있다는 인식이 지배적이었다.

클라우드는 여전히 대부분 IT 리더가 선호하는 인프라 플랫폼이지만, 많은 CIO가 단순히 온프레미스에서 모두 옮기거나 신규 프로젝트에서 클라우드를 다른 선택지보다 우선시하는 방식에서 벗어나, 워크로드 특성에 따라 최적의 실행 환경을 고르는 ‘클라우드 스마트(Cloud Smart)’ 전략으로 전환하고 있다.

클라우드 비용 최적화는 이런 재검토를 촉발한 핵심 요인 가운데 하나로, 많은 기업이 빠른 성장 속에서 치솟는 클라우드 비용을 통제하는 데 어려움을 겪고 있다. VM웨어의 최근 조사에 따르면, 엔터프라이즈 클라우드 인프라 지출의 21%가 활용도가 낮은 리소스에 낭비되고 있는데, 2025년 기준으로 445억 달러에 달한다. CIO의 31%는 전체 클라우드 비용의 절반을 낭비하고 있는 것으로 나타났다.

기술 컨설팅 기업 하이레인(Hylaine)의 기술 부사장 라이언 맥엘로이는 “클라우드로의 전면적인 전환은 끝났다”라고 지적했다. 맥엘로이는 “클라우드 스마트 조직은 어떤 워크로드를 클라우드에 두는 것이 최적인지 판단하기 위한 명확하고 검증된 프로세스를 갖추고 있다”라고 말했다.

맥엘로이는 “예를 들어, 아주 빠르게 제공해야 하고 향후 대규모 확장을 지원해야 하는 워크로드는 클라우드에서 구축해야 한다, 가상머신 환경에 호스팅해야 하는 레거시 기술 기반 솔루션이나, 수년간 매우 예측 가능한 워크로드를 가진 솔루션은 잘 관리된 데이터센터에 배치하는 편이 더 적합하다”라고 설명했다.

또한, 온프레미스 기술의 발전, 하드웨어 교체 주기의 장기화, 하이퍼스케일 클라우드 업체의 초고마진, 업계의 전형적인 하이프 사이클이 맞물리면서 클라우드 스마트 트렌드가 형성됐다고 분석했다. 이런 흐름은 모두 하이브리드 인프라 전략에 힘을 실어주는 요인이다.

맥엘로이는 “AI가 데이터와 컴퓨팅 자원이 사일로에 갇히는 또 하나의 큰 변수를 만들었다”라고 지적하며, “많은 조직이 고성능 GPU 데이터센터를 직접 구축할 의지도 역량도 없기 때문에 클라우드를 써야 한다. 하지만 보수적이거나 비용에 민감한 전략을 유지해 온 조직은 하이브리드 인프라 중 온프레미스 영역에 데이터를 두고 있을 수 있다”라고 설명했다.

이런 변수 탓에 마이그레이션 과정이나 데이터 송신·반출 비용 등에서 복잡성과 예상치 못한 비용이 발생하는 사례가 늘었다. 맥엘로이는 “클라우드 스마트로 전환하고 있다고 공개적으로 인정한 곳은 전체의 10%에 불과하다”라며, 이 수치가 낮아 보일 수 있지만 상당히 의미 있는 수준이라고 강조했다.

클라우드 전략을 재수립하려면, 해결해야 할 과제가 많다. 맥엘로이는 “우선 새로운 CIO나 CTO가 있어야 한다”라며, “이미 클라우드로 옮긴 조직은 되돌리기가 매우 어렵다”라고 설명했다.

또한 기업이 자체 데이터센터나 코로케이션 시설을 운영·관리할 인력을 유지하고, 재교육까지 마쳐야 한다. 맥엘로이는 이런 조직은 클라우드가 제공하는 순수 민첩성과 분산 컴퓨팅의 이점보다 온프레미스 인프라 수요가 더 크기 때문에 클라우드 스마트 전략을 택할 수 있다고 평가했다.

적합한 하이퍼스케일러 선정과 재평가

프로터 앤 갬블(P&G)의 CTO 겸 수석 부사장 파올라 루체티는 “프로터 앤 갬블은 약 8년 전 워크로드 마이그레이션을 시작하면서 클라우드 퍼스트 전략을 채택했다”라고 밝혔다. 루체티는 “당시 모든 신규 애플리케이션을 퍼블릭 클라우드에 배포하고, 기존 워크로드는 전통적인 호스팅 환경에서 하이퍼스케일러로 옮기라는 것이 내부 원칙이었다”라고 설명했다.

루체티는 “이 접근법을 통해 레거시 인프라 의존도를 줄이면서 빠르게 현대화하고, 클라우드 플랫폼이 제공하는 확장성과 복원력을 활용할 수 있었다”라고 말했다.

현재 프로터 앤 갬블의 워크로드는 대부분 클라우드에서 가동되고 있다. 루체티는 “지연 시간이나 성능 요건 때문에 일부 워크로드는 퍼블릭 클라우드 밖에 두고 있으며, 이 워크로드는 정기적으로 재평가한다”라며, “이런 기반이 디지털 전환의 중요한 시기에 속도와 유연성을 제공했다”라고 말했다.

클라우드 생태계가 성숙해지면서 비즈니스 우선순위도 함께 바뀌었다. 루체티는 “비용 최적화, 지속 가능성, 민첩성이 우선 과제로 떠올랐다”라며, “프로터 앤 갬블에서 클라우드 스마트란 워크로드에 맞는 하이퍼스케일러를 선정하고 정기적으로 재평가하며, 투명성과 거버넌스를 위해 핀옵스(FinOps)를 내재화하고, 특정 사용례를 위해 하이브리드 아키텍처를 활용하는 것을 의미한다”라고 설명했다.

이런 접근법이 자동화와 AI, 에이전트 기반 기능을 통해 개발자가 더 빠르게 가치를 창출하도록 돕는다. 루체티는 “이 접근법은 기술적인 문제만이 아니라 문화적인 변화이다. 기술 의사결정을 비즈니스 결과와 정렬하는 전략적 유연성 마인드를 반영한다”라고 강조했다.

클라우드 선택지를 바꾸는 AI

AI는 막대한 잠재 투자 수요를 만들어내며 인프라 전략의 중요성을 한층 끌어올렸다. 맥엘로이는 “값비싼 엔비디아 GPU가 장착된 서버를 3년 동안 하루 24시간, 주 7일 임대하는 것은 직접 구매하는 것보다 재정적으로 치명적일 수 있다. 하지만 매년 새 모델을 끊김 없이 활용할 수 있는 유연성은 전략적 우위가 될 수 있다”라고 분석했다.

시스코는 퍼블릭 클라우드에 무엇을 두는 것이 정말 적절한지에 대해 훨씬 더 신중해졌다. 비용도 비용이지만, 가장 중요한 동인은 AI 데이터 거버넌스이다. 시스코의 수석 엔지니어이자 제품 아키텍트 닉 케일은 “클라우드 스마트란 워크로드를 온프레미스로 되가져오는 클라우드 환송(repatriation)이 아니라, AI 데이터 중력을 올바른 컨트롤 플레인(Control Plane)과 정렬하는 것”이라고 말했다.

시스코 IT 조직은 어떤 워크로드를 프라이빗 클라우드에 두고, 어떤 워크로드를 퍼블릭 클라우드에 둘지 구분했다. 케일은 “대규모 모델 학습과 파인튜닝에는 고객 데이터와 텔레메트리 데이터에 대한 강력한 통제가 필요하다. 그래서 추론과 데이터 처리를 보안이 강화된 프라이빗 환경에서 수행하고, 오케스트레이션과 비민감 서비스는 퍼블릭 클라우드에 두는 하이브리드 아키텍처를 점점 더 선호하고 있다”라고 설명했다.

시스코의 클라우드 스마트 전략은 데이터 분류와 워크로드 프로파일링에서 출발한다. 고객 식별이 가능한 정보와 진단 추적, 모델 피드백 루프는 지역 규정을 준수하는 프라이빗 클라우드에서 처리한다. 케일은 “스테이트리스 서비스, 콘텐츠 전송, 텔레메트리 집계처럼 대규모 확장성과 효율성을 위해 퍼블릭 클라우드의 탄력성을 활용하는 영역도 있다”라고 설명했다.

케일은 또 “시스코는 과거 클라우드에만 존재하던 기능을 고객 환경에 안전하게 배포할 수 있도록 패키징해, 데이터를 공유 인프라로 노출하지 않고도 동일한 AI 기반 인사이트와 자동화를 로컬에서 제공하고 있다”라며, “이런 방식은 데이터 위치, 프라이버시, 비용을 훼손하지 않으면서 고객이 AI 기능을 유연하게 도입하도록 돕는다”라고 덧붙였다.

이런 실천이 시스코의 규제 준수 수준을 끌어올리고, 추론 지연 시간을 줄였으며, 측정 가능한 클라우드 비용 감소로 이어졌다.

한편, AI는 대규모 위협 탐지 영역에서 시스코의 클라우드 전략을 근본적으로 바꿔 놓았다. 케일은 “초기 버전 모델은 전부 퍼블릭 클라우드에서 실행됐지만, 고객별 텔레메트리에 맞춰 파인튜닝을 시작하면서 데이터 민감성과 데이터 양 때문에 클라우드 송신 비용이 급증했고 거버넌스도 어려워졌다”라고 밝혔다.

케일은 “훈련과 피드백 루프를 로컬 프라이빗 클라우드로 옮기자 전체 감사 추적이 가능해졌고 전송 비용이 크게 줄었으며, 추론은 하이브리드로 유지해 규제 산업 고객에게도 1초 미만 응답 시간을 제공할 수 있었다”라고 설명했다.

시스코 IT 조직은 자사의 생성형 AI 지원 어시스턴트에서도 비슷한 문제를 발견했다. 케일은 “초기에는 케이스 기록과 진단 로그를 퍼블릭 클라우드 LLM에서 처리했다. 그러자 금융과 헬스케어 고객이 데이터가 외부 환경으로 나가는 것에 우려를 제기했고, 이에 기능을 고객의 가상 프라이빗 클라우드나 온프레미스 클러스터에서 직접 실행하도록 아키텍처를 다시 설계했다”라고 말했다.

이런 식으로 오케스트레이션 계층은 퍼블릭 클라우드에 남아 있지만, 민감한 데이터는 고객의 통제 범위를 벗어나지 않는다.

AI는 시스코 고객 경험(CX) 포트폴리오 전반의 텔레메트리 분석 방식도 바꿔놓았다. 시스코의 IT 조직은 14만 곳이 넘는 고객 환경에서 페타바이트 규모의 운영 데이터를 수집한다. 케일은 “실시간 예측 AI로 전환했을 때, 원시 시계열 데이터를 클라우드로 보내는 비용과 지연이 병목이 됐다”라고 말했다.

케일은 “고객의 로컬 수집기에서 특징 추출과 이상 탐지를 수행하고, 클라우드에는 상위 수준의 위험 신호만 보내도록 바꾸자 송신 비용이 크게 줄어들면서도 모델 정확도는 오히려 개선됐다”라고 설명했다.

이 모든 사례에서 AI가 아키텍처의 장단점을 명확히 보여줬다. 케일은 “특정 워크로드는 퍼블릭 클라우드의 탄력성으로 이점을 얻지만, 가장 민감하고 데이터 집약적이며 지연에 민감한 AI 기능은 데이터와 더 가까운 곳에서 실행해야 한다”라고 설명했다. 또한, 케일은 “시스코에서 클라우드 스마트는 클라우드 환경 자체가 아니라, 데이터 중력과 프라이버시 경계, 추론 경제성을 적절한 컨트롤 플레인과 정렬하는 문제로 자리 잡았다”라고 덧붙였다.

더 저렴한 실행 경로 모색

프로터 앤 갬블과 마찬가지로 월드 인슈어런스 어소시에이츠(World Insurance Associates)는 클라우드 스마트를 핀옵스 프레임워크 도입으로 해석하고 있다. 월드 인슈어런스 어소시에이츠의 CIO 마이클 코리건은 이를 “비즈니스 사용례에 맞춰 가상머신 구성을 최적화하고 표준화하며, 필요한 스토리지와 컴퓨팅 규모를 명확히 파악하는 것”이라고 설명했다.

이런 요소가 비용을 결정하는 핵심 변수이기 때문에 월드 인슈어런스 어소시에이츠는 사용례별로 각 환경 규모를 정하는 일관된 표준을 갖추고 있다. 또한 이런 표준 덕분에 자동화된 아키텍처를 구축했다.

그 다음 단계는 탄력성처럼 필요한 기능이 켜져 있는지 확인하며 구성을 최적화한다. 코리건은 “일반적으로 야간처럼 서비스 사용량이 줄어드는 시간에는 인스턴스를 자동으로 종료해 스토리지를 줄이고 컴퓨팅을 끄도록 해, 사용하지 않는 리소스에 비용을 내지 않도록 한다”라며, “이 모든 것은 최적화와 표준이라는 기반에서 시작된다”라고 설명했다.

월드 인슈어런스 어소시에이츠는 클라우드 서비스 업체와 다양한 수준의 약정을 맺고 있다. 코리건은 “예를 들어, 마이크로소프트와는 일반 가상머신을 쓸 수도 있고, 예약 인스턴스를 선택할 수도 있다. 얼마나 많은 머신을 쓸지, 얼마를 지출할지 알려주면 그에 맞춰 할인 조건을 협상할 수 있다”라고 밝혔다.

코리건은 “그래서 핀옵스 프레임워크가 반드시 자리 잡아야 한다. 실제로 소비하지 않을 수준의 지출에 약정하고 싶어하는 기업은 없기 때문이다”라며, “이 방식은 클라우드 서비스를 이용하는 고객, 즉 우리 같은 조직이 선제적으로 상당한 할인을 확보할 수 있는 좋은 수단”이라고 강조했다.

월드 인슈어런스 어소시에이츠는 자동화와 알림에 AI를 활용하고 있다. 코리건은 AI 도구가 대개 컴퓨팅 처리량 기반 과금 모델을 사용한다며, “질의를 설계할 때 복잡하지 않은 작업이라면 더 저렴한 실행 경로를 타도록 설계해, 처리 자원이 덜 드는 SLM으로 보내도록 할 수 있다”라고 설명했다.

이렇게 하면 사용자가 만족스러운 결과를 얻으면서도 소비하는 자원이 줄어 비용도 절감할 수 있다. 코리건은 “워크플로우나 프로세스가 더 복잡하면 먼저 SLM으로 보내 기준을 충족하는지 확인한다. 요건이 더 복잡하면 다음 단계로 넘기는데, 이 단계는 더 비싸며 일반적으로 더 많은 데이터를 분석해야 하는 LLM을 사용해 사용자가 원하는 답을 제공한다”라고 설명했다.

코리건은 “이런 방식으로 프로세스 복잡도에 따라 정말 필요한 수준만 소비하도록 비용을 관리하고 있다”라고 덧붙였다.

클라우드는 ‘살아 있는 프레임워크’

맥엘로이는 CIO와 CTO가 하이브리드 인프라 구성이 주는 이점과 최근 수년 동안 기술 수준이 얼마나 달라졌는지에 대해 더 적극적으로 논의할 필요가 있다고 말했다. 맥엘로이는 “많은 조직이 클라우드 비용이 본능적으로 너무 높다고 느끼면서도, CFO가 얼마나 절감할 수 있는지 가늠하지 못해 클라우드 환송이라는 위험한 작업에 나설 유인이 크지 않다”라고 지적했다.

루체티는 프로터 앤 갬블의 클라우드 전략을 “살아 있는 프레임워크”라고 표현하며, 앞으로 수년 동안 적절한 클라우드 역량을 활용해 AI와 에이전트 기반 기능을 사업 가치와 연결해 나갈 계획이라고 말했다. 루체티는 “목표는 단순하다. 기술을 비즈니스 성장과 정렬하면서 급변하는 디지털 환경에서 민첩성을 유지하는 것”이라며, “클라우드 전환은 도착지가 아니라 여정이다. 프로터 앤 갬블은 기술 의사결정을 비즈니스 성과와 정렬하고 유연성을 수용하는 데서 성공이 나온다고 믿고 있다”라고 강조했다.
dl-ciokorea@foundryco.com

마이크론, 메모리 공급난 속 소비자 시장 철수···기업용 제품에 집중

9 December 2025 at 00:51

마이크론테크놀로지가 소비자 대상 브랜드 ‘크루셜’의 사업을 종료한다. 글로벌 3위 메모리 업체인 마이크론은 AI 분야에서 폭증하는 수요에 대응하기 위해 생산량과 투자를 기업용 디램과 SSD 제품군으로 재배치하고 있다. 크루셜 브랜드의 소비자용 제품 출하는 2026년 회계연도 2분기 종료 시점인 2월 말까지 이어질 예정이다.

마이크론의 최고사업책임자이자 부사장인 수밋 사다나는 성명을 통해 “데이터센터 전반에서 AI가 주도하는 성장세가 메모리와 스토리지 수요 급증으로 이어지고 있다. 더 빠르게 성장하는 전략 시장에서 주요 고객에 대한 공급과 지원을 강화하기 위해 소비자 사업에서 철수하는 어려운 결정을 내렸다”라고 전했다.

마이크론은 조립 PC가 본격적으로 확산되며 게이머 중심의 수요가 빠르게 늘던 1996년 크루셜 브랜드를 설립했다.

하지만 현재 AI 서버 시장이 급성장하면서 수요는 크게 증가하고 있다. 일반 서버는 보통 32GB에서 128GB 메모리를 탑재하지만, AI 서버는 최대 1TB까지 탑재할 수 있다. 이런 상황에서 GPU 보드에 쓰이는 고대역 메모리(HBM)뿐만 아니라 스토리지 수요도 늘고 있다. 이들 모두 디램을 기반으로 한다. 마이크론이 한 번에 생산할 수 있는 메모리에 한계가 있는 만큼, 높은 마진을 제공하는 기업 고객을 우선한다는 전략이다.

메모리 시장 분석 기관 오브젝티브애널리시스(Objective Analysis)의 대표 짐 핸디는 “디램 공급이 심각하게 부족해지면 제조사는 고객 기반을 재정비한다. 규모가 작거나 신용도가 낮은 고객, 대금 결제가 불안한 고객을 우선적으로 정리하는 경향이 있다”라고 설명했다.

핸디는 이어 “제조사는 제한된 자원을 어떻게 활용하는지 면밀히 검토하고, 가장 수익성이 높은 시장에 제품을 공급하고 있는지 따져본다. 필요하다면 생산 물량을 더 높은 수익을 낼 수 있는 분야로 돌려야 하는지를 스스로 점검한다”라고 분석했다.

크루셜이 철수 대상으로 지목된 이유도 여기에 있다. 마이크론이 소비자 시장과 기업용 시장 가운데 하나를 선택해야 했다면, 언제나 후자가 선택될 가능성이 높다는 의미다. 주요 클라우드 업체의 주문량은 소비자 구매와 비교할 수 없을 정도로 규모가 크고, 고객 역량도 높아 지원 부담이 훨씬 적으며 경쟁사 수도 적다. 핸디는 “소규모 듀얼 인라인 메모리 모듈(DIMM) 제조사는 디램 제조사처럼 대규모 주문을 소화할 수 없다”라고 설명했다.

또한 핸디는 마이크론이 메모리 초과 재고를 떠안을 가능성은 사실상 없다고 언급했다. 그는 “크루셜 사업부에서 판매하지 못한 DIMM 재고는 엔터프라이즈 시장에서 모두 수요를 찾게 될 것이라고 확신한다. 그만큼 시장이 빡빡하다”라고 말했다.

서버용 DIMM의 가격은 소비자용 DIMM보다 높지만, 요구되는 품질 기준이 더 까다로워 반드시 수익성이 높다고 단정할 수 없다. 다만 핸디는 “기술 지원이 거의 필요 없는 기업 고객에게 DIMM 1만 개를 판매하는 것이, 많은 설명과 지원을 필요로 하는 개인 고객에게 DIMM 2개를 판매하는 것보다 훨씬 효율적”이라며 “서비스 요구가 동일하다고 해도 어떤 기업이든 한 번에 1만 개씩 판매하는 편이 2개를 판매하는 것보다 유리하다”라고 말했다.

HBM 공급도 극도로 부족한 것으로 전해지고 있다. 일부 GPU 통합 보드는 제조사가 필요한 메모리를 확보하지 못해 생산이 지연되고 있을 정도다. HBM은 패키징 단계 직전까지 DDR과 동일한 디램 제조 공정을 사용하기 때문에, 필요할 경우 DDR용 웨이퍼 일부를 HBM 생산으로 전환해 공급 부족을 완화할 여지는 있다.

디램 시장은 공급 과잉과 부족 사이를 끊임없이 오가는 순환 구조를 보인다. 어느 달에는 공급이 넘치다가, 그다음 달에는 부족하고, 다시 그다음에는 과잉이 발생한다. 핸디 대표는 이번 상황도 예외가 아니라고 말했다.

그는 “수많은 사이클을 지켜보며 업계를 추적해 왔다. 반복되는 패턴이 매우 많다. 공급 부족이 갑작스러운 공급 과잉으로 전환되는 순간, 디램 제조사들은 이전에 정리했던 고객 관계를 재구축하기 위해 서둘러 움직인다”라고 설명했다.
dl-ciokorea@foundryco.com

INE Earns G2 Winter 2026 Badges Across Global Markets

9 December 2025 at 00:07

Cybersecurity and IT training platform maintains Leader and Momentum Leader positions while expanding regional excellence

INE has been recognized with seven G2 Winter 2026 badges, underscoring its continued leadership in online course delivery, technical skills development, and cybersecurity education. This season’s awards include Leader status in the Online Course Providers Grid Report, Momentum Leader recognition in two major training categories, and regional leadership across Europe, Asia, Asia Pacific, and India.

“The Winter G2 awards reflect how organizations across the globe rely on INE to strengthen IT and cybersecurity resilience and develop advanced technical skills,” said Lindsey Rinehart, CEO of INE. “Our sustained leadership across diverse geographies and training categories highlights the scalability and impact of our platform for learners at every level.”

INE’s G2 Winter 2026 Report distinctions include:

  • Leader, Grid Report for Online Course Providers
  • Momentum Leader, Momentum Grid Report for Online Course Providers
  • Momentum Leader, Momentum Grid Report for Technical Skills Development
  • Regional Leader, Europe Regional Grid Report for Online Course Providers
  • Regional Leader, Asia Regional Grid Report for Online Course Providers
  • Regional Leader, Asia Pacific Regional Grid Report for Online Course Providers
  • High Performer, India Regional Grid Report for Online Course Providers

Market Position Analysis

G2 rankings are based on verified user reviews and performance indicators across platform satisfaction and market presence. As one of the most trusted review sources globally, G2’s recognition highlights the consistent reliability and value of INE’s training programs.

This Winter’s performance reinforces INE’s strengths across three major dimensions:

  • Market Consistency: Leadership across both global and regional grids demonstrates INE’s stability and dependability for organizations seeking long-term training solutions.
  • Geographic Reach: Regional Leader positions in Europe, Asia, and the Asia Pacific emphasize INE’s global scalability and effectiveness in delivering high-quality training across diverse markets.
  • Technical Strength: Momentum Leader recognition in Technical Skills Development highlights the platform’s ability to evolve with rapidly advancing cybersecurity and IT domains, supporting skill growth in areas such as threat analysis, cloud security, network defense, and hands-on cyber operations.

Training Depth and Quality

Recent G2 reviews emphasize INE’s commitment to delivering practical, real-world training experiences. One verified reviewer shared that INE’s courses are generally designed in such a way that the knowledge acquired can be directly applied in a professional setting.

Another IT professional noted that INE provides the best cybersecurity content with lab setup, and that INE certificates, such as eJPT and eWPTX, have good value in the cybersecurity industry as they are known and valued by technical HR recruiters.

“These G2 badges validate our mission to deliver world-class cybersecurity and technical training that keeps pace with evolving technologies and threats,” said Rinehart. “We’re proud to equip both individuals and enterprises with the skills required to build highly effective IT and security teams.”

About INE:

INE is the premier provider of online networking and cybersecurity training and certification. Harnessing a powerful hands-on lab platform, cutting-edge technology, a global video distribution network, and world-class instructors, INE is the top training choice for Fortune 500 companies worldwide for cybersecurity training in business and for IT professionals looking to advance their careers. INE’s suite of learning paths offers an incomparable depth of expertise across cybersecurity and is committed to delivering advanced technical training while also lowering the barriers worldwide for those looking to enter and excel in an IT career.

Contact

Chief Marketing Officer

Kim Lucht

INE

press@ine.com

Cybersicurezza, non solo deepfake: ecco le sfide del 2026 e come affrontarle

9 December 2025 at 00:00

Non c’è trend tecnologico che tenga: la cybersicurezza supererà l’AI come priorità dei CIO anche nel 2026. Ovviamente, l’intelligenza artificiale irrompe sul panorama della security perché è sia un’arma di attacco che di difesa, creando nuove sfide per l’anno in arrivo. La complessità è aumentata dalla possibile escalation delle tensioni geopolitiche, che si riverbera sulle azioni dei cybercriminali. Sul fronte opposto, i CIO e i CISO possono contare su un impianto normativo tarato sull’obiettivo della resilienza – a cominciare dalla NIS2; qualche azienda fa resistenza al moltiplicarsi degli adempimenti, ma la legge è fondamentale per rafforzare la postura di sicurezza.

“La tecnologia corre molto veloce ed è difficile prevedere quali saranno le evoluzioni, ma, secondo me, l’introduzione dell’intelligenza artificiale farà da spartiacque”, ci ha detto Marco Colizzi, Senior Manager IT, Italy, Olympus Corporation (apparecchi elettromedicali). “Vedremo sempre più deepfake, e sempre più realistici, sia video che audio, e questo aumenterà il rischio di smishing, phishing e impersonalisation. Un altro aspetto da tenere in considerazione è il data poisoning, ovvero il rischio di usare dati manipolati per fare training dei modelli AI. Un elemento è certo: la cybersicurezza non è un tema IT, ma di business”.

Cybersecurity nel 2026, il fattore AI

Già lo scorso anno, gli esperti di cybersicurezza mettevano in guardia sull’AI applicata al malware. Il machine learning permette ai criminali di modificare il codice malevolo in tempo reale e rende più difficile la detection, gli strumenti automatizzati abilitano velocemente gli attacchi zero-day e la GenAI rende ancora più credibile i prodotti di social engineering. I cybercriminali possono impersonare dirigenti d’azienda o personaggi famosi attraverso sofisticate manipolazioni audio-video ed estorcere dati e denaro.

Nel 2026 è prevista un’ulteriore evoluzione: l’intelligenza artificiale agentica come nuova frontiera di attacco e difesa. Per esempio, gli aggressori utilizzeranno bot AI per condurre ricognizioni, muoversi nei sistemi infettati e rubare dati più rapidamente. Per questo le aziende dovranno rendere l’AI un’architettura IT, non un semplice prodotto, e integrare le barriere di sicurezza in ogni sistema che preveda gli Agent.

“L’attuale grande emergenza nel panorama della cybersicurezza è l’uso degli strumenti AI da parte dei cybercriminali, che sta aumentando la quantità e la velocità degli attacchi a reti e servizi IT”, evidenzia Paolo Schintu, Senior cybersecurity specialist and manager. “Al momento si osserva un innalzamento ancora poco incisivo della qualità di questi attacchi, ma è solo questione di tempo”.

Schintu osserva che l’intelligenza artificiale ha reso molto più semplice creare attacchi anche da parte di persone non particolarmente esperte; di conseguenza le aziende si troveranno ad affrontare un numero crescente di minacce ed eventuali incidenti da rilevare e analizzare.

“In questa sorta di inseguimento tra guardie e ladri, in cui ahimè le guardie rincorrono sempre, le imprese rischiano di trovarsi troppo indietro rispetto a cybercriminali che corrono”, sottolinea Schintu. “Gli strumenti di cyber prevention & detection e di threat intelligence basati sull’AI ci sono e sono efficaci, ma il problema è che adottare le tecnologie AI per le imprese o i SOC è un processo meno veloce di quanto sia per i cybercriminali creare attacchi con l’intelligenza artificiale. Perciò nel 2026 il CIO dovrà lavorare per capire come usare nel modo più efficace l’AI per la difesa”. 

C’è poi il fronte del social engineering, in cui rientrano gli attacchi di phishing sia via mail che tramite deepfake e voice spoofing, e qui Schintu ammette un alto livello di qualità in email, audio, foto e video manipolati: anche per un utente consapevole non è facile proteggersi.

“L’AI aggiunge un nuovo elemento all’equazione della cybersicurezza e alle sue sfide”, conferma Silvio Borletto, CIO & CISO di LMA srl (Aerospace Technology). Anche per questo in LMA viene usato solo il prodotto acquistato dal vendor (Microsoft); tutti gli altri non sono accettati. 

“L’AI gratuita per noi è un grande no, perché i dati non si sa dove vanno e sicuramente diventano pubblici”, puntualizza Borletto.

L’AI, d’altro lato, è anche un potente strumento di difesa, che semplifica e migliora la gestione dei log e dell’infrastruttura. “Non abbiamo subito attacchi con l’intelligenza artificiale, ma leggiamo di casi del genere ogni giorno e usiamo prodotti di sicurezza che integrano nativamente questa tecnologia per proteggerci”, rivela Borletto.

Non dimenticare le basi della cybersicurezza

L’evoluzione del malware, sempre più potenziato dall’AI, è sicuramente un fattore di cui tenere conto anche per Claudio Telmon, Senior Partner, Information & Cyber Security di P4I – Partners4Innovation. Tuttavia, precisa l’esperto, non sarà ancora la minaccia prevalente nel 2026: “Secondo me continueranno a verificarsi in maggioranza incidenti legati a eventi di più basso profilo, per cui CIO e CISO devono prestare attenzione agli elementi fondanti della cybersecurity”.

Si tratta di tenere i sistemi IT aggiornati, proteggere le reti, gestire gli accessi e, soprattutto, provvedere alla segregazione dei sistemi informativi.

“I malware si diffondono molto rapidamente nei sistemi IT dopo aver infettato un dispositivo, e questo succede perché non trovano ostacoli lungo il percorso, ovvero non c’è segregazione sufficiente”, spiega Telmon. “E poi, bisogna lavorare sulla prevenzione e le capacità di rilevamento delle minacce o degli attacchi: non si può pensare di analizzare i dati o di andare alla ricerca delle infezioni manualmente”.

Lo scenario geopolitico inciderà di più

Sulla cybersicurezza nel 2026 inciderà molto anche lo scenario geopolitico. Se dovesse esserci un peggioramento della situazione internazionale, con un inasprimento o ampliamento dei conflitti in corso, i cyber-attacchi dietro i quali si celano alcuni governi potrebbero aumentare.

Molti CIO sottolineano anche l’evoluzione del modello di business dei cybercriminali, che segue da vicino l’evoluzione – o meglio, il deterioramento – dello scenario internazionale. La cybersecurity è un fenomeno politico, sociale ed economico ed è influenzato dagli altri fenomeni dello stesso tipo.

Già l’ultimo report di ENISA [in inglese], l’Agenzia europea per la cybersecurity, focalizzato sull’esposizione della PA ai cyber-attacchi, ha rilevato picchi in Italia (per esempio, molti eventi DDoS) in corrispondenza del rinnovo del supporto del nostro Paese all’Ucraina. Questo non vale solo per le pubbliche amministrazioni, ma per tutte aziende strategiche, come utility, finanza e trasporti.

La compliance alla NIS2 è fondamentale

Nel 2026 non andrà trascurato l’aspetto normativo, a cominciare dalla conformità alla NIS2. Per il recente rapporto sulla cybersicurezza di I-Com, l’Istituto per la Competitività, le tante norme finiscono col gravare sulla competitività delle imprese, basti pensare che in Europa ci sono la direttiva CER, la NIS2, il Cybersecurity Act, il Cyber Resilience Act, DORA, il Cyber Solidarity Act e altre iniziative come il Digital Omnibus e il Libro Bianco sulle infrastrutture digitali; in Italia contiamo il recepimento della NIS2, il Perimetro di sicurezza nazionale, la legge 90/2024, le linee guida dell’ACN e altro ancora. Diversi CIO italiani condividono la visione di I-Com: in azienda si passa il tempo (e si spendono soldi) per gli adempimenti e ci sono meno risorse per l’innovazione.

Tuttavia, gli esperti di cybersecurity non hanno dubbi sull’importanza delle regole, e in particolare della NIS2, per rendere le imprese resilienti.

“Cento euro non investiti oggi potrebbero significare 100 mila euro persi in attacchi cyber domani”, stigmatizza Schintu. “Il problema non sono le sanzioni, ma il rischio per il business: un ransomware può mettere in ginocchio un’impresa fino a causarne la chiusura. E non monitorare la supply chain può voler dire subire attacchi anche se la propria azienda è protetta. Per i fornitori, poi, non essere compliant si può tradurre in difficoltà sul proprio mercato: i clienti potrebbero escludere dalla loro catena di approvvigionamento le imprese che non danno determinate garanzie. Seguire le indicazioni della NIS2 per me è la baseline imprescindibile della cybersicurezza”.

La NIS2 ha, in generale, il pregio di alzare l’attenzione delle imprese sull’allargamento della superficie d’attacco: “Quest’anno abbiamo assistito a diversi casi in cui gli attacchi non erano diretti, ma sono passati per la supply chain”, ricorda Colizzi.

Anche per Telmon, “di positivo sul fronte della cybersicurezza c’è che le normative attuali vanno nell’interesse delle aziende”. Telmon riconosce che la burocrazia può essere gravosa, ma la norma sta facendo aumentare il livello di sicurezza delle aziende.

“Gli adempimenti non sono solo formali, ma sostanziali”, chiarisce l’esperto, “ed è vero che sono un costo, ma aiutano a creare resilienza e, nel momento dell’incidente informatico, fanno la differenza. Ritengo più gravoso per le imprese il proliferare di normative sovrapposte, come la NIS2, la Legge 90, le norme sui dati, quelle sulla privacy, l’AI Act… Occorre una razionalizzazione, quindi non un indebolimento delle norme ma una maggiore efficienza, dando alle aziende un quadro di riferimento da implementare, ma senza complessità e duplicazioni”.

La sovranità digitale e il Confidential Computing

Per Schintu anche il ricorso ai servizi cloud è un elemento di attenzione. “Sono d’accordo con quanto, anni fa, in una RSA Conference, sentii riportare da un funzionario della NSA americana, e cioè che gli hacker hanno ragione quando dicono che il cloud è il computer di qualcun altro. Perciò, secondo me, bisognerebbe evitare che alcune tipologie di dati siano messi sul cloud, di qualunque provider. Semplicemente, devono restare in casa”.

Schintu osserva che l’adozione al cloud deve essere oculata per un preciso motivo: i governi esteri possono richiedere alle loro aziende, che non possono rifiutarsi, di cedere i dati dei loro clienti; è il caso del Cloud Act USA, per esempio. Di fatto, le imprese clienti si ritrovano a dipendere da vendor che non possono garantire la totale confidenzialità dei dati.

“Con le tensioni geopolitiche attuali, questo può essere anche un rischio che va oltre i temi della riservatezza”, sottolinea Schintu. “I CIO dovrebbero valutare se sfruttare gli innegabili vantaggi del cloud per alcune applicazioni, ma lasciarne altre on-premises. È importante anche diversificare i fornitori e provare a cercare cloud provider europei. In passato c’è stata una forte spinta acritica verso il cloud, e in molti casi le imprese non hanno riflettuto a sufficienza sulle implicazioni. Oggi si rischia lo stesso con l’AI. Direi di fare delle riflessioni su che cosa, come, perché e quando utilizzare questo strumento”.

Gartner [in inglese] arriva a parlare di Confidential Computing come trend per il 2026: si tratta di isolare i carichi di lavoro all’interno di ambienti di esecuzione attendibili (TEE) basati su hardware; questo mantiene i ​​contenuti e i carichi di lavoro riservati anche per i proprietari dell’infrastruttura, i provider cloud o chiunque abbia accesso fisico all’hardware. Si tratta di una prassi particolarmente utile per i settori regolamentati e le aziende con operazioni globali che affrontano rischi geopolitici e di conformità, nonché per la collaborazione tra concorrenti. Entro il 2029, Gartner prevede che oltre il 75% delle operazioni elaborate in infrastrutture non attendibili sarà protetto dal Confidential Computing.

Il quantum cambierà tutto. Ma non è ancora qui

Non è ancora entrato nel mainstream, ma nel 2026 le imprese dovrebbero cominciare a riflettere sui rischi del quantum computing.

Come spiega Schintu, “Il quantum scardina le chiavi crittografiche attualmente usate. Non vedo arrivare un’adozione enterprise nell’immediato futuro, per me questa prospettiva è a 10-15 anni, eccezion fatta per alcuni settori specializzati, come chimica e finanza. Però la portata sarà enorme: il quantum produrrà una rivoluzione al pari, se non superiore, all’AI oggi. Le aziende fanno bene ad attrezzarsi fin da ora contro le nuove minacce cyber e a studiare i vantaggi per il business del calcolo quantistico”.

Il fattore umano è quello che preoccupa di più i CIO

Il 2025 risulta, a livello globale, l’anno più critico di sempre per numero e gravità degli attacchi, che hanno colpito soprattutto PA, sanità e manifattura. In Italia, la crescita è ancora più marcata con un raddoppio degli incidenti gravi rispetto al 2024 e un impatto particolarmente forte sul settore pubblico e della sicurezza, come si legge nel citato rapporto di I-Com.

In questo contesto, i CIO sono d’accordo nel ritenere l’errore umano e la disinformazione come la principale minaccia, e dedicano molte ore alla formazione del personale. Le competenze e la cultura della sicurezza sono il primo elemento di una gestione efficace della sicurezza.

Come racconta Borletto, la messa in sicurezza dei dati, anche con le certificazioni ISO 27001, è una componente importante del suo lavoro, e la sfida è riuscire, pur essendo LMA un’azienda medio-piccola, a portare tutto il personale a un buon livello di gestione della cybersicurezza.

“Occorre confrontarsi con le resistenze delle persone e, per vincerle, il CIO deve saper fornire delle alternative credibili al vecchio modo di fare, cui molti restano ancorati”, spiega Borletto. “Mentre vigilo sulla gestione sicura dei dati e delle reti dell’azienda, devo riuscire, da un lato, a continuare a rendere l’azienda snella, perché questo è il nostro vantaggio di realtà medio-piccola, dall’altro, devo offrire una cybersicurezza da multinazionale, e fare tutto questo con un team di piccole dimensioni. Penso siano sfide comuni a molti CIO italiani”. 

La ricetta di Borletto – oltre, ovviamente, all’uso di hardware e software all’avanguardia – è fare formazione continua e relazionarsi costantemente con i colleghi.

“Noi del team IT giriamo sempre per l’azienda e monitoriamo i comportamenti, correggendo eventuali deviazioni dalle prassi più sicure”, rivela il CIO. “Cerchiamo di farlo in modo costruttivo, mostrando le pratiche di cybersicurezza come una crescita professionale e personale”.

Il CIO detta regole e processi

Pur in un panorama complesso e in costante cambiamento, le aziende hanno diversi strumenti per difendersi.

“Nella sicurezza sono importanti i comportamenti e la dimensione umana, ma esistono anche le regole, e vanno rispettate”, chiarisce ancora Borletto. “Noi abbiamo chiuso tutta la navigazione internet verso l’Oriente, dopo certe vicende internazionali, per evitare attacchi informatici da quelle aree del mondo. Inoltre, abbiamo una lista di applicazioni che non possiamo usare, in particolare per lo scambio dati via web. Infine, alcune applicazioni non possono stare nel cloud, fondamentalmente, tutto quello che i nostri clienti non vogliono risieda in un cloud generico. Dovrebbe essere un cloud certificato di un certo livello, ma per noi è ancora più semplice e sicuro far risiedere questi dati e applicazioni on-premises, sui nostri server, anche perché operiamo su scala internazionale”.

Per Telmon, “La consapevolezza è importante, ma è ancora di più cruciale definire i processi. Per esempio, la casella di posta di un dipendente viene compromessa e monitorata a scopo di frode. Quando il cybercriminale rileva una comunicazione via email che riguarda una transazione economica, manda un falso messaggio comunicando un nuovo Iban su cui fare il versamento e così sottrae il denaro. Tutto questo si può evitare non solo con l’awareness, ma creando un processo che tutela l’azienda: se si riceve via email la richiesta di cambiare l’Iban per una transazione, bisogna prima verificare telefonicamente con la controparte che il messaggio sia legittimo. Le procedure operative sono fondamentali”.

I 7 pilastri della cybersicurezza

Raccogliendo le indicazioni dei diversi esperti di mercato, la cultura della sicurezza informatica in azienda dovrebbe poggiare su 7 precisi pilastri:

  • Architettura Zero Trust. I CIO devono garantire che la rete sia progettata per verificare ogni richiesta di accesso in base all’identità e al comportamento, sia all’interno che all’esterno dell’organizzazione. Fondamentale è la Gestione delle identità e degli accessi (IAM).
  • Cloud governance: i CIO devono guidare le iniziative per proteggere l’infrastruttura cloud, inclusi crittografia dei dati, gestione delle identità e controlli degli accessi, garantendo al contempo la conformità agli standard di settore (come ISO 27001, GDPR, ecc.).
  • Cyber-resilienza e risposta agli incidenti: in assenza di un CISO, i CIO sono responsabili di garantire che l’organizzazione disponga di una solida strategia per il disaster recovery, la continuità operativa la risposta rapida ed efficace agli incidenti. Devono, inoltre, dedicare attenzione specifica alla difesa dal ransomware.
  • Gestione del rischio: il focus deve includere la supply chain e le terze parti, nonché la compliance normativa.
  • AI e automazione nella sicurezza: i CIO devono adottare strumenti quali l’analisi comportamentale, la gestione delle informazioni e degli eventi di sicurezza (SIEM) e la risposta automatizzata agli incidenti.
  • Sicurezza degli endpoint: occorre gestire anche le minacce che derivano dal lavoro da remoto.
  • Formazione e awareness: alimentare la cultura della sicurezza informatica del personale.

Verso la sicurezza preventiva

Secondo Gartner il futuro è della sicurezza informatica preventiva [in inglese] (preemptive cybersecurity), perché le organizzazioni devono affrontare un aumento esponenziale di minacce che prendono di mira reti, dati e sistemi connessi.

La società di ricerche prevede che, entro il 2030, le soluzioni preventive rappresenteranno la metà di tutta la spesa per la cybersecurity (contro meno del 5% nel 2024), perché i CIO passeranno dalla difesa reattiva alla protezione proattiva. Queste tecnologie saranno la prossima evoluzione delle soluzioni di detection and response e ne allargheranno la portata.

“La sicurezza informatica preventiva consiste nell’agire prima che gli aggressori colpiscano utilizzando SecOps basate sull’intelligenza artificiale, negazione programmatica e inganno”, spiega Tori Paulman, VP Analyst di Gartner. “Questo è un mondo in cui la previsione è protezione”.

Yesterday — 8 December 2025IT

제품 차별화 가능할까···분석가가 본 ‘인텔 네트워킹 사업부 매각 철회’의 의미

8 December 2025 at 21:50

인텔 CEO 립부 탄은 취임 이후 비핵심 기술 정리를 핵심 과제로 추진해 왔으며, NEX는 그중에서도 가장 큰 규모의 매각 대상이었다. NEX 유지 결정에 대해 인텔은 원하는 조건의 거래가 성사되지 않았는지, 혹은 내부적으로 판단이 달라졌는지 밝히지 않았다.

인텔 대변인은 “네트워킹은 인텔 데이터센터 전략의 핵심 요소”라며 “시스템과 플랫폼 중심 기업으로 전환하는 과정에서 이번 결정은 신중하게 내린 전략적 판단”이라고 설명했다.

인텔은 공식 성명을 통해 “NEX의 전략적 옵션을 면밀히 검토했으며, 독립 회사로 분리하는 방안도 함께 평가했다. 그 결과 NEX가 인텔 내부에 있을 때 가장 성공 가능성이 높다고 판단했다. NEX를 유지함으로써 실리콘, 소프트웨어, 시스템 간의 통합을 더욱 강화할 수 있으며, 이를 통해 AI, 데이터센터, 엣지 전반에서 고객에게 제공하는 가치를 높일 수 있다. 인텔은 앞으로도 고객을 위한 제품 제공과 장기적 가치 창출에 집중할 것”이라고 밝혔다.

인텔은 이 접근 방식을 구체화하고 실행하기 위해, 스리니 아옌가르가 이끄는 중앙 엔지니어링 그룹으로 NEX 조직 일부를 이전할 계획이다.

그러나 이것만으로는 인텔이 당초 NEX 분사를 추진한 이유가 충분히 설명되지 않는다. 지난 7월, NEX 총괄 사친 카티는 네트워킹·통신 사업의 핵심 축을 별도 회사로 분리하는 계획을 담은 메모를 내부에 공유한 바 있다. 당시 업계 전문가들은 이 결정이 사실상 확정된 것으로 봤다.

IDC의 기반 기술 및 반도체 부문 연구 책임자인 짐 하인스는 인텔이 적정한 매각 제안을 받았는지에 대해 언급을 피하면서도, NEX의 시장 입지가 줄어들고 있다는 점은 분명하다고 분석했다. IDC는 인텔의 반도체 전체 시장 점유율이 2025년 3분기 6.8%로 떨어졌으며, 이는 2024년 연간 7.4%, 2023년 연간 9.2%에서 지속적으로 하락한 수치라고 밝혔다.

하인스는 “장기적으로 인텔에 긍정적인 결정이며, 최근 재무 상황이 개선된 것도 NEX를 유지하는 결정에 영향을 미친 것으로 보인다”라고 진단했다.

올해 초 CEO가 바뀐 이후, 인텔은 재무 건전성 강화와 실행력 제고를 최우선 과제로 삼아왔다. NEX 매각도 이런 전략의 일환이었지만, 하인스는 이후 인텔이 미국 정부와 엔비디아, 소프트뱅크로부터 투자를 유치하며 다른 방식으로 자금을 확보할 수 있게 됐다고 분석했다.

하인스는 “AI 데이터센터 시장에서 인텔이 입지를 지키고 확장하는 데 있어 NEX 사업부는 전략적 자산이 될 만하다. 시장에서는 이제 풀스택 솔루션을 제공하는 능력이 프로세서 제조사의 경쟁력으로 평가된다”라고 말했다. 그는 이어 “확장형·분산형 네트워킹 솔루션은 핵심 요소이며, 인텔은 실리콘 포토닉스를 포함한 NEX 기술과 소프트웨어를 활용해 차별화된 제품을 개발할 수 있을 것”이라고 설명했다.
dl-ciokorea@foundryco.com

急成長するネオ・クラウド市場:AI特化型クラウドは新たな選択肢になりうるか

8 December 2025 at 16:00

爆発的成長が予想されるネオ・クラウドとは

ネオ・クラウドとは、GPU中心の高性能インフラに特化したクラウドプラットフォームを指す。主要なサービスは、GPUaaS(GPU as a Service)、GenAI(生成AI)プラットフォームサービス、そして高容量データセンターの提供だ。

このネオ・クラウド市場、実に驚異的な成長を遂げている。調査会社のSynergy Research Groupによると、2025年第2四半期(4月-6月期)の収益は前年比205%という高い成長率を記録し、50億ドルの大台を突破した。2025年通年の収益は230億ドルに達する見込みという。

急成長の背景には、AIインフラへの高い需要がある。

企業のAI需要は急増しているが、ハイパースケーラーなどのクラウドプロバイダーは「膨大なAI需要に供給を合わせるのに苦労している状況」とSynergyの創業者でチーフアナリストを務めるJeremy Duke氏はコメントしている。

従来、企業がAIワークロードを実行する選択肢は、オンプレミスかパブリッククラウドと大きく二択だった。しかし、それぞれに大きな課題がある。オンプレミスでは、GPUは高価で電力消費が大きく、専門人材の確保や物理的な導入が困難という課題がある。一方、Amazon Web Services(AWS)、Microsoft Azure、Google Cloudといったハイパースケーラーのパブリッククラウドは、幅広いサービスを提供する反面、コストの予測が難しいというリスクがある。業界、ユースケース、組織のルールなどの縛りがある場合は、データ主権の観点からも懸念が残る。

ネオ・クラウドは、この二つ以外の選択肢として登場した。ハイパースケーラーが広範なクラウドサービスを提供するのに対し、ネオ・クラウドはGPUとAIワークロードに特化することで差別化を図る。

IDCのアジア/太平洋 エンタープライズサーバーおよびデータセンターリサーチグループでアソシエイト・リサーチディレクターを務めるCynthia Ho氏は、「ネオ・クラウド事業者はNVIDIAとの契約により迅速にリソースを確保し、高性能なサービスを提供している点でハイパースケーラーよりも優位性がある。AIという成長市場でシェアを獲得しつつある」と述べている。

ネオ・クラウドのメリットは「安心して試せる場所」

ネオ・クラウド市場の主要プレイヤーには、CoreWeave(2017年創業)、Crusoe(2018年創業)、Lambda(2012年創業)、Nebius(Yandexから2024年に誕生)、そしてOpenAI(2015年)など。最後のOpenAIは「ChatGPT」を提供するが、2025年初めに発表したAIインフラの「Stargate」構想により、今後市場の重要なプレイヤーになると見られている。これらに加えて、Applied Digital、DataRobot、Together AIなどの新規参入も続いている。興味深いのは、CoreWeaveのように、暗号マイニング企業が高性能コンピューティングサービスプロバイダーへと転換しているケースが多い点だ。

ここまで挙げたネオ・クラウド事業者は米国や欧州中心に展開している大手だが、ローカルで提供するネオ・クラウドもある。その1社がオーストラリアで展開するSharon AIだ。2024年に創業、この11月に最大50MWの容量拡大契約を発表したばかりだ。

Sharon AIでCTOを務めるDan Mons氏が、Ciscoが11月にオーストラリア・メルボルンで開催したイベントで、Ciscoのオーストラリア&ニュージーランド バイスプレジデント兼ゼネラルマネージャーを務めるStefan Leitl氏と対談した。そこではネオ・クラウドの優位性として、以下が挙がった。

まずコスト優位性だ。ハイパースケーラーと比較して予測可能な価格体系を提供し、予想外の課金のリスクを回避できる。従量課金で予想外の高額請求が発生するリスクを嫌う企業にとって、これは大きなメリットだろう。

2つ目として、専門性の深さである。ネオ・クラウドプロバイダーの多くは、HPC(ハイ・パフォーマンス・コンピューティング)やスーパーコンピューティングの分野で知見を持つ。実際、Mons氏は「AIであまり語られていない秘密」として、「AIインフラで必要な知識の多くは、HPCやスーパーコンピューティングの世界では40年以上前からやってきたこと」と明かす。HPCのバックグラウンドを持つMons氏らにとっては「新しいものではない」と語る。この専門知識があるからこそ、複雑なAIワークロードに対応できるという。

3つ目が、迅速なリソース提供だ。ネオ・クラウドプロバイダーはNvidiaとの契約を通じて、ハイパースケーラーよりも迅速にGPUリソースを確保できる。GPU不足が続く現状において、これは決定的な優位性となる。

これらに加えて、Mons氏が挙げた興味深い優位性が、「安全に失敗できる場所」だ。生成AIプロジェクトの95%がPOCから本番環境に到達しない(MITレポート)などと言われている。「組織が必要とするのは安全に失敗できる場所であり、早く失敗するして学ぶ必要がある。新しい技術を試してみることが重要で、その場所を我々は提供できる」とMons氏。

最後に上がったのが、データ主権への対応だ。「データ主権は多次元的な問題だ」とMons氏は指摘する。データなしにAIはない。通貨とも言われるデータだが、データの種類によっては「データをどこに置くべきか、従うべきコンプライアンス規制はどれか、地域でスキルをどう見つけるか、信頼できるベンダーをどう見つけるかなどを考えなければならない」(Mons氏)。Sharon AIなどローカルで展開するネオ・クラウドはこうした地域特有の要件に精通しており、グローバルなハイパースケーラーとは異なる価値を提供している。

企業がネオ・クラウドに注目すべき理由

実際にネオ・クラウドを利用する企業はどのような企業なのか。

Mons氏は、初期顧客の1社としてVictor Chang心臓研究所を紹介した。従来の研究をGPUベースに移行し、AIを活用しているという。Sharon AIを選択した理由はGPUへのアクセスだけでない。医療研究機関が扱うデータは機密性が高いため、データ主権は極めて重要な課題だ。Sharon AIはオーストラリアの2拠点にインフラを設置しており、データが国外に出ることはないという点が魅力だったようだ。

Victor Chang心臓研究所のような研究機関や大学に加え、AIサービスを開発するスタートアップなどもネオ・クラウドの顧客のようだ。「現時点では、技術的な知識が比較的高い企業が組織が多いようだ」とHo氏。一部地域では、GPUアクセスに制限のある中国企業が顧客というネオ・クラウドもあると言われている。

成長は今後も続きそうだ。Synergyは2030年までにネオ・クラウド市場の規模は約1800億ドルに到達し、年平均成長率69%で拡大すると予測している。GPUaaS/GenAIプラットフォームサービス市場は現在、年間165%という高い成長率を維持しており、ここでネオ・クラウドはかなりのシェアを占めるという。

だが課題はある。Ho氏は稼働率を挙げる。「巨大なインフラ投資が必要だが、実際のところ稼働率はどのぐらいか。利用は追いついていないのではないか」(Ho氏)。ネオ・クラウドという選択肢が定着するためには、ユースケースやメリットをより明確にして訴求する必要もありそうだ。

気になる日本ではどうなのか? IDCでシニアリサーチマネージャーとして日本国内のエンタープライズインフラストラクチャ市場を担当する加藤慎也氏は、日本では「ネオ・クラウド」と大々的に名乗る事業者は登場していないと認めながら、経済産業省の「クラウドプログラム」などによりGPUの大規模投資が発生しており、今後GPUクラウドサービスが活況となる可能性を示唆した。実際に「GPUをフルに活用できる環境として最適化されており、パフォーマンスのメリットは大きい」と話す。 現時点での用途は研究開発や学術研究などこれまでHPCを用いていたユースケースがわかりやすいものの、企業も動向に注目しておく必要はありそうだ。日本でもネオ・クラウドサービスが本格化するかという提供者側の課題はあるものの、「HPCおよびAI領域において、すでにGPUを利用していたり大規模な需要があったりする企業は、クラウドにある効率的・効果的なインフラという選択肢になる可能性はある」と加藤氏。「ネオ・クラウドの重要な特徴にコストとスピードがある。AIを活用する分野で、開発力で競争優位性を測るためにも選択肢の1つになりうると注目しておいて良いだろう」と続けた。

IBM to buy Confluent to extend its data and automation portfolio

8 December 2025 at 13:48

IBM has agreed to acquire cloud-native enterprise data streaming platform Confluent in a move designed to expand its portfolio of tools for building AI applications

The company said Monday in a release that it sees Confluent as a natural fit for its hybrid cloud and AI strategy, adding that the acquisition is expected to “drive substantial product synergies” across its portfolio.

Confluent connects data sources and cleans up data. It built its service on Apache Kafka, an open-source distributed event streaming platform, sparing its customers the hassle of buying and managing their own server clusters in return for a monthly fee per cluster, plus additional fees for data stored and data moved in or out. 

IBM expects the deal, which it valued at $11 billion, to close by the middle of next year.

Confluent CEO and co-founder Jay Kreps stated in an email sent internally to staff about the acquisition, “IBM sees the same future we do: one in which enterprises run on continuous, event-driven intelligence, with data moving freely and reliably across every part of the business.”

It’s a good move for IBM, noted Scott Bickley, an advisory fellow at Info-Tech Research Group. “[Confluent] fills a critical gap within the watsonx platform, IBM’s next-gen AI platform, by providing the ability to monitor real-time data,” he said, and is based on the industry standard for managing and processing real-time data streams. 

He added, “IBM already has the pieces of the puzzle required to build and train AI models; Confluent provides the connective tissue to saturate those models with continuous live data from across an organization’s entire operation, regardless of the source. This capability should pave the road ahead for more complex AI agents and applications that will be able to react to data in real time.”

Bickley also pointed out that the company is playing the long game with this acquisition, which is its largest in recent history. “IBM effectively positions itself proactively to compete against the AI-native big data companies like Snowflake and Databricks, who are all racing towards the same ‘holy grail’ of realizing AI agents that can consume, process, and react to real-time data within the context of their clients’ trained models and operating parameters,” he said, adding that IBM is betting that a full-stack vertical AI platform, watsonx, will be more appealing to enterprise buyers than a composable solution comprised of various independent components.

It is a deal that works for both parties.

The move, he noted, also complements previous acquisitions such as the $34.5 billion acquisition of Red Hat and the more recent $6.4 billion acquisition of Hashicorp, all of which are built upon dominant open source standards including Linux, Terraform/Vault, and Kafka. This allows IBM to offer a stand-alone vertical, hybrid cloud strategy with full-stack AI capabilities apart from the ERP vendor space and the point solutions currently available.

In addition, said Andrew Humphreys, senior director analyst at Gartner, with IBM MQ, IBM already competes with Confluent in the event broker market, the underpinning technology for event driven architectures. “Although there is some overlap, IBM MQ and Kakfa address different use cases and problems for customers, so IBM has the opportunity to bring these offerings together to deliver a comprehensive set of event broker offerings that address the full breadth of event driven architecture use cases,” he said.

Vital layer in the watsonx stack filled

Mitch Ashley, VP and practice lead at Futurum Research, noted that the acquisition of Confluent fills a vital layer in the watsonx stack and gives IBM an open source-based backbone for real time, governed data in motion. It also aligns IBM’s recent data acquisitions into a coherent architecture. “The value here is not just Kafka as a technology, but the ability to deliver fresh, contextual data into every part of IBM’s AI portfolio with consistency and control,” he said.

The acquisition, wrote Sanchit Vir Gogia, the chief analyst at Greyhound Research, in a report released soon after the purchase was announced, “marks a turning point that has little to do with price tags or portfolio expansion. What it truly reveals is a change in who controls the lifeblood of modern digital enterprises. That lifeblood is real-time data.”

It is not a tactical buy, he noted, it’s the strategic completion of an architecture years in the making. “For enterprise leaders, this changes the map,” he predicted. “AI no longer sits at the edge of architecture. It moves to the center, and Confluent becomes the layer that makes that center responsive, contextual, and live. This acquisition allows IBM to deliver AI that doesn’t just predict, but listens, grounded in data that is clean, connected, and always in motion.”

Added Stephen Catanzano, senior analyst, data & AI with Omdia, “all the major players are really building end to end data platforms at this point. … This is data in motion, so it really fills out the gap that [IBM] have to manage both moving data and static data, unstructured and structured.”

“People really want to apply generative AI and agentic AI with moving data and streaming data. And they (IBM) took the biggest player off the market,” he said.

In addition to all this, Bickley said, the timing was right in that Confluent has been experiencing a slowing of revenue growth and was reportedly shopping itself already.

“At the end of the day, this deal works for both parties,” he said. “IBM is now playing a high-stakes game and has placed its bet that having the best AI models is not enough; it is the control of the data flow that will matter.”

This story has been updated with additional analyst commentary.

Tech marketplaces: Solving the last-mile billing barrier to global growth

8 December 2025 at 11:50

According to an IoT Analytics report from early 2024, 1.8% of global enterprise software was sold via marketplaces in 2023 and is forecasted to grow to nearly 10% by 2030. Although this represents a minority share today, it is the segment growing at a much faster pace than any other IT sales channel.

The concept of a technology marketplace as a central hub for software distribution predates the cloud, but I believe its current surge is driven by a fundamentally new dynamic. Cloud giants, or hyperscalers, have reinvented the model by transforming independent software vendors (ISVs) into a motivated army of sales channels. What are the keys to this accelerated growth? And what is the role of the principal actors in this new era of technology commercialization?

The new hyperscaler-ISV economic symbiosis

This new wave of marketplaces is spearheaded by hyperscalers, whose strategy I see as centered on an economic symbiosis with ISVs. The logic is straightforward: an ISV’s software runs on the hyperscaler’s infrastructure. Consequently, every time an ISV sells its solution, it directly drives increased consumption of cloud services, generating a dual revenue stream for the platform.

This pull-through effect, where the ISV’s success translates directly into the platform’s success, is the core incentive that has motivated hyperscalers to invest heavily in developing their marketplaces as a strategic sales channel.

The five players in the marketplace ecosystem

The marketplace ecosystem involves and impacts five key players: the ISV, the hyperscaler, the end customer, the distributor and the reseller or local hyperscaler partner. Let’s examine the role of each.

The ISV as the innovative specialist

In essence, I see the ISV as the entity that transforms the hyperscaler’s infrastructure into a tangible, high-value business solution for the end customer. For ISVs, the marketplace is a strategic channel that dramatically accelerates their time-to-market. It allows them to simplify transactional complexities, leverage the hyperscaler’s global reach and tap into the budgets of customers already under contract with the platform. This can even extend to mobilizing the hyperscaler’s own sales teams as an indirect channel through co-selling programs.

However, in my view, this model presents challenges for the ISV, primarily in managing customer relationships and navigating channel complexity. By operating through one or two intermediaries (the hyperscaler or a local partner), the ISV inevitably cedes some control over and proximity to the end customer.

Furthermore, while partner-involved arrangements simplify the transaction for the customer, they introduce a new layer of complexity for the ISV, who must now manage margin agreements, potential channel conflicts and the tax implications of an indirect sales structure, especially in international transactions.

The hyperscaler as the ecosystem enabler

As the ecosystem enabler, the hyperscaler provides the foundational infrastructure upon which ISVs operate. By leveraging their massive global customer base, I see hyperscalers strategically promote the marketplace with a dual objective: to increase customer loyalty and retention (stickiness) and to drive the cloud consumption generated by these ISVs.

In doing so, the hyperscaler transcends its original role to become the central operator of the ecosystem, assuming what I believe is a new, influential function as a financial and commercial intermediary.

The end customer as the center of gravity

In this ecosystem, the end customer acts as the center of gravity. Their influence stems from their business needs and, most critically, their budget. Both hyperscalers and ISVs align their strategies to meet the customer’s primary demand: transforming a traditionally complex procurement process into a centralized and efficient experience.

However, this appeal can be diminished by operational constraints. A primary limitation arises in territories where the customer cannot pay for purchases in the local currency. This entails managing payments in foreign currencies, reintroducing a level of fiscal and exchange-rate complexity that counteracts the very simplicity that drew them to the marketplace.

The partner as the local reseller

The partner acts as a local reseller in the customer’s procurement process, particularly in countries where the hyperscaler does not have a direct billing entity. In this model, the reseller manages the contractual relationship and invoices the end customer in the local currency, simplifying the transaction for the customer.

This arrangement, however, challenges the marketplace model, which was designed for direct transactions between the hyperscaler and the customer. When a local reseller becomes the billing intermediary, the standard model becomes complicated as it does not natively account for the elements the partner introduces:

  • Partner margin: The payment flow must accommodate the reseller’s commission.
  • Credit risk: The partner, not the hyperscaler, assumes the risk if the end customer defaults on payment.
  • Tax implications: The partner must manage the complexities of international invoicing and related withholding taxes (WHT).

This disconnect has been, in my analysis, a significant barrier to the global expansion of ISV sales through marketplaces in regions where the hyperscaler lacks a legal entity.

The distributor as an aggregator being replaced

Historically, distributors have been the major aggregators in the technology ecosystem, managing relationships and contracts with thousands of ISVs and leading the initial wave of software commercialization. In the new era of digital distribution, however, hyperscaler marketplaces have emerged as a formidable competitor.

In my opinion, the marketplace model strikes at the core of the software distribution business by offering a more efficient platform for transacting digital assets. This leaves distributors to compete primarily on their advantage in handling tangible technology assets.

Key trends: Two noteworthy cases in marketplaces

The strategic use of cloud consumption commitments: A key driver accelerating marketplace adoption is its integration with annual and multiyear cloud consumption contracts. These agreements, in which a customer commits to a minimum expenditure, can often be used to purchase ISV solutions from the marketplace. This creates what I see as a threefold benefit:

  1. The customer can leverage a pre-approved budget to acquire new technology, expediting procurement.
  2. The ISV can close sales faster by overcoming budget hurdles.
  3. The hyperscaler ensures the customer fulfills their consumption commitment, thereby increasing retention.

The integration of professional services is the missing piece: A traditional limitation of marketplaces was their focus solely on software transactions, excluding the professional services (e.g., consulting, migration, implementation) required to deploy them. This created a process gap, forcing customers to manage a separate services contract.

While I have seen the inclusion of some professional services packages directly in marketplaces, this is not universally available for all ISVs. As a result, professional services remain the key missing link needed to complete the sale and offer the customer a comprehensive solution (software + services) in a single transaction.

Key actions for the ecosystem

This new wave of marketplaces is expected to continue its accelerated growth and capture a significant share of the technology distribution market. Assuming this transition is inevitable, I offer the following strategic recommendations for the ecosystem’s key players.

ISVs: Adapt the commercial model to the channel

I believe ISVS must incorporate the costs associated with the partner channel into their marketplace pricing strategy. When a sale requires a local reseller, the ISV’s commercial model must account for a clear partner margin and the impact of withholding taxes.

I’ve seen that failure to do so will disincentivize the partner from promoting the solution, potentially blocking the sale or, more likely, leading them to offer a competing solution that protects their profitability.

Hyperscalers: Resolve global billing friction

To realize the full global growth potential of the marketplace, hyperscalers must overcome the obstacle of international billing. The solution lies in one of two paths:

  1. Direct investment: Establish local subsidiaries in strategic countries to enable local currency invoicing and ensure compliance with regional tax regulations.
  2. Channel enablement: Design a financially viable model that empowers and compensates local partners to manage billing, assume credit risk and handle administrative complexity in exchange for a clear margin.

Customers: Establish governance and clarity in the billing model

The very simplicity that makes the marketplace attractive is also its greatest risk. The ease of procurement can lead to uncontrolled spending or the acquisition of redundant solutions if clear governance policies are not implemented.

It is essential to establish centralized controls to manage who can purchase and what can be purchased, thereby preventing agility from turning into a budgetary liability.

Customers must also verify whether a transaction will be billed directly by the hyperscaler (potentially involving an international payment in a foreign currency) or through a local partner. This distinction is critical as it determines the vendor of record and has direct implications for managing local taxes and withholding.

Partners: Proactively protect your profitability

From my analysis, the primary risk for a partner is financial; specifically, a loss of profitability when a managed client purchases directly from the marketplace, as this eliminates the partner’s margin and creates tax uncertainty. Attempting to resolve this retroactively with a penalty clause is often contentious and difficult to enforce.

The solution must be preventative and contractual. A partner of record agreement should be established with the client at the outset of the relationship. This agreement must clearly stipulate that, in exchange for the value the partner provides (e.g., consulting, support, local management), they will be the designated channel for all marketplace transactions.

This protects the partner’s profitability, prevents losses from unmanaged transactions and aligns the interests of the client and the partner, ensuring the partner’s value is recognized and compensated with every purchase.

Distributors: Differentiate your value

Faced with diminishing relevance due to hyperscaler marketplaces, distributors must redefine their value proposition. Their strategy should focus on developing an ecosystem of value-added services on their own platform to encourage direct customer purchases and compete more effectively.

The final frontier of frictionless growth

The shift to marketplace distribution is an undeniable force that will reshape how enterprise technology is bought and sold globally. However, the true promise of this model (frictionless, one-stop procurement for the end customer) remains constrained by the very complexities it seeks to eliminate: international billing, channel compensation and tax adherence.

The transition from a domestic (US-centric), direct-sale mindset to a truly global, indirect channel model is the final frontier. Those who solve the “last mile” of global channel and billing complexity will be the ones to truly own the future of enterprise software distribution.

This article is published as part of the Foundry Expert Contributor Network.
Want to join?

New Splunk Windows Flaw Enables Privilege Escalation Attacks

8 December 2025 at 11:03

Splunk for Windows has a high-severity flaw that lets local users escalate privileges through misconfigured file permissions. Learn how to fix it.

The post New Splunk Windows Flaw Enables Privilege Escalation Attacks appeared first on TechRepublic.

Meet the MAESTRO: AI agents are ending multi-cloud vendor lock-in

8 December 2025 at 10:17

For today’s CIO, the multi-cloud landscape, extending across hyperscalers, enterprise platforms, and AI-native cloud providers, is a non-negotiable strategy for business resilience and innovation velocity. Yet, this very flexibility can become a liability, often leading to fragmented automation, vendor sprawl, and costly data silos. The next frontier in cloud optimization isn’t better scripting—it’s Agentic AI systems.

These autonomous, goal-driven systems, deployed as coordinated multi-agent ecosystems, act as an enterprise’s “MAESTRO.” They don’t just follow instructions; they observe, plan, and execute tasks across cloud boundaries in real-time, effectively transforming vendor sprawl from a complexity tax into a strategic asset.

The architecture of cross-cloud agent interoperability

The core challenge in a multi-cloud environment is not the platforms themselves, but the lack of seamless interoperability between the automation layers running on them. The MAESTRO architecture (referencing the Cloud Security Alliance’s MAESTRO agentic AI threat modeling framework; MAESTRO stands for multi-agent environment, security, threat, risk and outcome) solves this by standardizing the language and deployment of these autonomous agents:

1. The open standards bridge: A2A protocol

For agents to coordinate effectively—to enable a FinOps agent on one cloud to negotiate compute resources with an AIOps agent on another cloud—they must speak a common, vendor-agnostic language. This is where the emerging Agent2Agent (A2A) protocol becomes crucial.

The A2A protocol is an open, universal standard that enables intelligent agents, regardless of vendor or underlying model, to discover, communicate, and collaborate. It provides the technical foundation for:

  • Dynamic capability discovery: Agents can publish their identity and skills, allowing others to discover and connect without hard-coded integrations.
  • Context sharing: Secure exchange of context, intent, and status, enabling long-running, multi-step workflows like cross-cloud workload migration or coordinated threat response.

To fully appreciate the power of the Maestro architecture, consider a critical cross-cloud workflow: strategic capacity arbitrage and failover. A FinOps agent on a general-purpose cloud is continuously monitoring an AI inference workload’s service level objectives(SLOs) and cost-per-inference. When a sudden regional outage is detected by an AIOps agent on the same cloud, the AIOps agent broadcasts a high-priority “capacity sourcing” intent using the A2A protocol. The Maestro orchestrates an immediate response, allowing the FinOps agent to automatically negotiate and provision the required GPU capacity with a specialized neocloud agent. Simultaneously, a security agent ensures the new data pipeline adheres to the required data sovereignty rules before the workload migration agent seamlessly shifts the portable Kubernetes container to the new, available capacity, all in under a minute to maintain continuous model performance. This complex, real-time coordination is impossible without the standardized language and interoperability provided by the A2A protocol and the Kubernetes-native deployment foundation.

2. The deployment foundation: Kubernetes-native frameworks

To ensure agents can be deployed, scaled, and managed consistently across clouds, we must leverage a Kubernetes-native approach. Kubernetes is already the de facto orchestration layer for enterprise cloud-native applications. New Kubernetes-native agent frameworks, like kagent, are emerging to extend this capability directly to multi-agent systems.

This approach allows the Maestro to:

  • Zero-downtime agent portability: Package agents as standard containers, making it trivial to move a high-value security agent from one cloud to another for resilience or cost arbitrage.
  • Observability and auditability: Leverage Kubernetes’ built-in tools for monitoring, logging, and security to gain visibility into the agent’s actions and decision-making process, a non-negotiable requirement for autonomous systems.

Strategic value: Resilience and zero lock-in

The Maestro architecture fundamentally shifts the economics and risk profile of a multi-cloud strategy.

  • Reduces vendor lock-in: By enforcing open standards like A2A, the enterprise retains control over its core AI logic and data models. The Maestro’s FinOps agents are now capable of dynamic cost and performance arbitrage across a more diverse compute landscape that includes specialized providers. Neoclouds are purpose-built for AI, offering GPU-as-a-Service (GPUaaS) and unique performance advantages for training and inference. By packaging AI workloads as portable Kubernetes containers, the Maestro can seamlessly shift them to the most performant or cost-effective platform—whether it’s an enterprise cloud for regulated workloads, or a specialized AI-native cloud for massive, high-throughput training. As BCG emphasizes, managing the evolving dynamics of digital platform lock-in requires disciplined sourcing and modular, loosely coupled architectures. The agent architecture makes it dramatically easier to port or coordinate high-value AI services, providing true strategic flexibility.
  • Enhances business resilience (AIOps): AIOps agents, orchestrated by the Maestro, can perform dynamic failover, automatically redirecting traffic or data pipelines between regions or providers during an outage. Furthermore, the Maestro can orchestrate strategic capacity sourcing, instantly rerouting critical AI inference workloads to available, high-performance GPU capacity offered by specialized neoclouds to ensure continuous model performance during a regional outage on a general-purpose cloud. They can also ensure compliance by dynamically placing data or compute in the “greenest” (most energy-efficient) cloud or the required sovereign region to meet data sovereignty rules.

The future trajectory

The shift to the Maestro architecture represents more than just a technological upgrade; it signals the true democratization of the multi-cloud ecosystem. By leveraging open standards like A2A, the enterprise is moving away from monolithic vendor platforms and toward a vibrant, decentralized marketplace of agentic services. In this future state, enterprises will gain access to specialized, hyper-optimized capabilities from a wide array of providers, treating every compute, data, or AI service as a modular, plug-and-play component. This level of strategic flexibility fundamentally alters the competitive landscape, transforming the IT organization from a consumer of platform-centric services to a strategic orchestrator of autonomous, best-of-breed intelligence. This approach delivers the “strategic freedom from vendor lock-in” necessary to continuously adapt to market changes and accelerate innovation velocity, effectively turning multi-cloud complexity into a decisive competitive advantage.

Governance: Managing the autonomous agent sprawl

The power of autonomous agents comes with the risk of “misaligned autonomy”—agents doing what they were optimized to do, but without the constraints and guardrails the enterprise forgot to encode. Success requires a robust governance framework to manage the burgeoning population of agents.

  • Human-in-the-loop (HITL) for critical decisions: While agents execute most tasks autonomously, the architecture must enforce clear human intervention points for high-risk decisions, such as a major cost optimization that impacts a business-critical service or an automated incident response that involves deleting a core data store. Gartner emphasizes the importance of transparency, clear audit trails, and the ability for humans to intervene or override agent behavior. In fact, Gartner predicts that by 2028, loss of control—where AI agents pursue misaligned goals—will be the top concern for 40% of Fortune 1000 companies.
  • The 4 pillars of agent governance: A strong framework must cover the full agent lifecycle:
    1. Lifecycle management: Enforcing separation of duties for development, staging, and production.
    2. Risk management: Implementing behavioral guardrails and compliance checks.
    3. Security: Applying least privilege access to tools and APIs.
    4. Observability: Auditing every action to maintain a complete chain of reasoning for compliance and debugging.

By embracing this Maestro architecture, CIOs can transform their multi-cloud complexity into a competitive advantage, achieving unprecedented levels of resilience, cost optimization, and, most importantly, strategic freedom from vendor lock-in.

This article is published as part of the Foundry Expert Contributor Network.
Want to join?

IBM Pursues AI Expansion With $11B Confluent Acquisition

8 December 2025 at 09:59

The move reflects a rapidly intensifying race among technology giants to strengthen the data foundations required for generative and agentic AI.

The post IBM Pursues AI Expansion With $11B Confluent Acquisition appeared first on TechRepublic.

❌
❌