NO.1: 펜싱 아픔
이은주 사장,펜싱 아픔기자간담회서 사업전략 발표“오늘날 기업들은 다양한 클라우드 환경과 수 많은 애플리케이션을 비즈니스에서 활용하고 있으며,이 환경은 생성형 AI의 도입으로 더욱 복잡해지고 있다.생성형 AI가 2028년까지 최대 10억 개의 앱을 만들어낼 것으로 예상되는 상황에서 자동화는 더 이상 선택 사항이 아니다.”
이은주 한국IBM 사장은 13일 서울 여의도 본사에서 개최된 기자간담회에서 이같이 밝혔다.
이날 한국IBM은 하이브리드 클라우드와 AI,자동화를 중심으로 한 비즈니스 전략과 포트폴리오를 업데이트하고,최근 발표한 왓슨x 플랫폼 관련 기술들에 대해 소개했다.
이은주 한국IBM 사장은 “자동화를 통해 기업은 시간을 절약하고,문제를 해결하고,더 빠르게 의사 결정을 내릴 수 있다”며 “하이브리드 클라우드와 AI 기술은 비즈니스 성장에 실질적인 도움을 줄 수 있는 성숙 단계에 접어들고 있다”고 말했다.
이은주 사장은 "AI 기술 혜택을 기업고객에게 전달하기 위해 수립한 IBM의 4가지 원칙인‘개방성,신뢰성,맞춤형,역량 강화’등을 기반으로 제품을 개발하는데 집중하고 있다"고 소개했다.
이 사장은 “IBM은 업계에서 가장 완벽한 자동화 솔루션을 제공하고 있다”며 “IBM은 통합가시성,네트워크,고객사의 기술 관련 비용,인사이트 확보 자동화의 모든 측면을 고려한 포트폴리오를 보유하고 있다”고 강조했다.
기업은 인스타나(Instana)를 통해 퍼블릭,프라이빗 클라우드,엣지 디바이스 등 다양한 환경에서의 운영 상태에 대한 자동화된 통합가시성을 가질 수 있다.
앱티오(Apptio)를 사용하면 기술 투자에 대한 지출과 여기에서 창출된 비즈니스 가치를 명확하게 파악해 데이터에 기반한 투자 결정을 내리고,펜싱 아픔변화하는 시장 상황에 신속하게 대응할 수 있다.
자원 최적화 관리 솔루션인 터보노믹(Turbonomic)을 활용하면 자원을 사용하지 않을 시간대에는 중지하거나 과다 할당된 경우 자원을 줄여 비용 절감할 수 있는 기회를 찾아낸다.특히,펜싱 아픔이러한 기술은 최근 AI 플랫폼이나 자체 거대언어모델(LLM) 구축 시 가장 큰 문제가 되고 있는 GPU 자원 최적화에도 적용이 가능하여,기업의 하드웨어와 소프트웨어 인프라 비용 및 GPU 비용 절감에도 도움을 줄 수 있다.
이러한 제품에 더해 최근 IBM은 인프라 수명주기 관리와 보안 수명주기 관리로 멀티 클라우드 및 하이브리드 환경을 자동화하는 테라폼,볼트 등의 제품을 제공하는 하시코프를 인수하기로 했다.하시코프를 통해 고객은 멀티 클라우드 및 하이브리드 클라우드 환경으로 쉽게 전환하고 이를 운영할 수 있다.
이은주 사장은 곧 출시될 새로운 생성형 AI 기반 툴인 IBM 콘서트도 소개했다.왓슨x의 AI를 기반으로 하는 IBM 콘서트는 고객의 애플리케이션 포트폴리오 전반에 걸쳐 문제를 식별,예측,해결책을 제시하는 생성형 AI 기반 통찰력을 제공한다.
이 새로운 도구는 고객의 기존 시스템에 통합되어 생성형 AI를 사용하여 클라우드 인프라,소스 리포지토리,CI/CD 파이프라인 및 기타 기존 애플리케이션 관리 솔루션의 데이터와 연결하고 연결된 애플리케이션에 대한 자세한 시각정보를 제공한다.
IBM 리서치의 케이트 소울 생성형 AI 리서치 프로그램 디렉터는 최근 IBM에서 발표한 왓슨x 관련 정책,기술과 그 의미에 대해 설명했다.
최근 IBM은 IBM에서 성능이 가장 뛰어난 언어 및 코드 그래니트 AI 모델 제품군을 오픈 소스로 배포했다.이로써 고객,개발자,글로벌 전문가들은 엔터프라이즈 환경에서 AI가 달성할 수 있는 한계를 확장할 수 있게 됐다.
현재 허깅페이스와 깃허브에서 아파치 2.0 라이선스로 제공되는 오픈 소스 그래니트 모델은 개발 프로세스,품질,투명성,효율성 면에서 매우 뛰어나다.그래니트 코드 모델은 30억 개~340억 개의 매개변수 범위에서 기본형과 명령어 추종형 모델들로 제공되며 복잡한 애플리케이션 현대화,코드 생성,버그 수정,코드 설명 및 문서화,리포지토리 유지 관리 등의 작업에 적합하다.파이썬,자바스크립트,자바,고,C++,러스트 등 116개 프로그래밍 언어가 학습되어 있는 그래니트 코드 모델은 IBM의 테스트 결과,두 배나 큰 다른 오픈 소스 코드 모델보다 우수한 성능을 보이는 등 다양한 코드 관련 작업에서 오픈 소스 코드 거대언어모델(LLM) 중 최고 수준의 성능을 발휘하는 것으로 나타났다.
이와 함께 케이트 소울 디렉터는 LLM 성능을 높이기 위해 IBM과 레드햇이 함께 개발한 인스트럭트랩을 소개했다.인스트럭트랩 방법론은 수십 년 동안 오픈 소스에서 소프트웨어 개발이 진행돼 온 것처럼 지속적이고 점진적 기여를 통해 기본 모델을 지속적으로 발전시킬 수 있도록 한다.기업의 개발자는 인스트럭트랩을 통해 자사의 데이터로 해당 비즈니스 도메인이나 산업에 특화된 모델을 구축할 수 있으므로 AI의 직접적인 가치를 확인할 수 있다.IBM은 이 접근법을 왓슨x.ai 및 새로운 레드햇 엔터프라이즈 리눅스 AI(RHEL AI) 솔루션에 통합함으로써 고객에게 추가적인 가치를 제공하는데 이러한 오픈 소스 기여 모델을 활용할 계획이다.
이은주 사장은 “점점 더 많은 고객이 하이브리드 클라우드로 가고 있으며,복잡한 IT 환경은 생성형 AI 활용으로 훨씬 더 복잡해지고 있다”며 “IBM은 레드햇,왓슨X,각종 자동화 도구를 제공해 비용을 절감하고 윤영을 더 쉽게 하며,기업에게 운영 인사이트를 제공하는데 집중하겠다”고 밝혔다.
펜싱 아픔
:데이터 품질, 파이프라인 및 애플리케이션에 대한 가시성도 향상된다.
펜싱 아픔,송촌이 ‘여기 재밌는 거 있더라’면서 가져가는데 캐치가 안 된 건 아쉽기는 하다”고 했다.