인텔 리더와 업계 전문가들이 비즈니스에서 AI가 실현할 수 있는 구체적인 성과와 기업의 미래에 대한 깊이 있는 통찰을 공유합니다.
일시 : 2024년 6월 5일(수) 9:30 ~ 16:00
장소 : JW Marriott 호텔 서울 그랜드볼룸(5F)
인텔은 실리콘, 소프트웨어, 서비스를 통해 모든 곳에서 가능성을 확장하며, 지구상 모든 사람의 삶을 풍요롭게 만드는 데 기여하는 신뢰할 수 있는 파트너입니다. 이번 컨퍼런스에서는 인텔과 다양한 파트너들이 어떻게 AI 기술 혁신을 주도하고 있는지 직접 확인할 수 있습니다.
다양한 기술 세션과 AI 데모 쇼케이스를 통해 최첨단 AI 솔루션을 직접 경험하고, 인텔의 리더 및 전문가들로부터 최신 트렌드와 통찰을 얻는 유익한 시간이 될 것입니다.
Intel AI Summit Seoul에서 여러분의 비즈니스와 기술 전략에 새로운 시각을 제공할 수 있는 귀중한 인사이트를 얻으시길 바랍니다!
기조연설과 주제별 트랙 세션을 통해, 데이터 처리에서부터 인프라 구축, 소프트웨어 활용에 이르기까지 AI 솔루션의 전반적인 측면을 심층적으로 탐험하는 기회를 제공합니다. 빠른 발전을 이루고 있는 대형 언어 모델(Large Language Models, LLMs)과 Generative AI의 트렌드를 파악하고, AI 솔루션을 채택하거나 기존의 AI 인프라를 최적화하기 위한 전략을 얻을 수 있습니다.
네이버의 "하이퍼클로바 X"는 최신의 LLM 기술 기반 위에 뛰어난 성능, 강력한 보안의 멀티모달을 지향하고 있습니다. 본 세션에서는 네이버 LLM 모델과 전략에 대해 공유하고, 글로벌 LLM 생태계 발전을 위한 인텔과의 협업을 소개할 예정입니다.
AI Everywhere를 향한 인텔과 삼성의 Client부터 Server 제품들, 그리고 Gaudi까지의 전략적 협력과 Cloud/Edge/Auto 등의 모든 응용에서 AI 확산에(Big Bang) 따른 고성능/고용량/저전력/고신뢰성 메모리 솔루션이 요구됨으로 인한 Samsung 메모리사업부의 전략 및 마일스톤을 소개합니다.
생성형 AI(GenAI)를 위한 인텔 가우디는 뛰어난 성능과 높은 비용 및 전력 효율성을 제공하여 현 GPU를 대체할 수 있는 AI 가속기입니다. 인텔 가우디 3의 아키텍처와 멀티 노드 구성 및 주요 LLM의 성능, 제품군에 대해 소개합니다.
슈퍼마이크로의 대규모 Gaudi2 Rack-Scale 구축 사례 및 데이터센터 단위의 AI 구축 트렌드를 공유합니다.
AI Ecosystem의 기반인 Datacenter의 높은 Workload needs를 충족시킬 수 있는 SK 하이닉스의 고성능, 고효율, 고용량 Server Memory Solution을 소개합니다 : HBM3E, DDR5 RDIMM, DDR5 MCRDIMM, CXL Memory
연세대학교 미래캠퍼스는 인텔과 함께 원주시를 디지털헬스케어 중심 도시로 변화시키기 위해 노력하고 있습니다. 인텔의 선도적인 AI 및 AI 반도체 기술이 의료기기 도시 원주를 AI기반의 디지털 헬스케어 도시로 전환시킬 것입니다.
본 세션에서는 네이버 서비스들에 적용된 음성인식 시스템이 대용량 요청에 대응하기 위해 인텔의 어떤 최적화 솔루션들을 활용하였는지 사례를 소개하고, 서비스 특성에 따른 인텔 플랫폼의 이점을 살펴볼 것입니다.
SK텔레콤은 유무선 네트워크를 AI 유무선 인프라로 진화시키기 위한 여정을 진행 중 입니다. 본 발표에서는 차세대 기지국 구조로 주목받고 있는 가상화 기지국에 AI 기술을 접목하여 소모전력을 절감한 사례를 소개합니다.
도시에서 생성되는 다양한 영상 데이터는 인공 지능 기술과 융합되어 새롭게 도시의 사고와 재난을 예방할 수 있는 서비스로 발전되고 있다. 이노뎁의 지능형 CCTV 영상 분석 기술과 인텔의 GPU Flex 기술로 시민의 안전을 지키는 스마트 솔루션을 제공한다.
이더넷 기반 고성능 AI 클러스터 구성을 위한 고려사항과 구축사례를 소개하고 이더넷과 인피니밴드로 구성된 클러스터의 성능과 장단점을 비교하여 소개합니다.
OpenVINO에서 지원하는 GenAI를 위한 모델 Compression/Quantization 등의 기능 소개와 인텔 플랫폼에서의 LLM 성능 결과 및 관련된 에코시스템, 그리고 비전, 챗봇 등을 포함한 OpenVINO로 가능한 활용 사례를 소개합니다.
AI PC 시대에 대한 전망 및 SK 하이닉스의 Client 메모리 솔루션을 소개합니다 : DDR5, LPDDR5x, LPCAMM2
'On Device AI의 등장 배경과 On Device Luxia를 소개합니다. 현재 인텔과의 협업을 공유하고, 인텔과 함께 그려 나가고자 하는 미래의 비젼을 공유합니다.
인텔의 OpenVINO와 NUC 시리즈를 활용하여 리테일 매장에 Vision AI를 도입한 사례를 중심으로
공간, 보안, 비용 등 소매업에서의 AI 도입 검토를 어렵게 만드는 요인들과 우리의 접근 방법을 소개합니다.
Intel의 혁신 기술을 적용한 AI 얼굴인식 성능 최적화 및 안전한 생체정보 암호화 기술과 AI 혁신 파트너사 Lenovo의 최적의 플랫폼과 서비스 적용을 기반으로, AI 기술 도입과 기업 니즈에 대한 인사이트를 전달합니다.
딥핑소스의 미션은 AI를 통해 물리적 공간 분석의 역량을 강화하여 디지털 정밀도와 현실 세계의 역동성 사이의 간극을 메우는 것입니다. 모든 산업 분야에 데이터를 실행 가능한 인사이트로 전환하고, 개인정보 보호 기술 혁신에 전념하고 있습니다. 윤리적 분석 솔루션을 제공함으로써 고객이 매장 운영 효율성을 높이고 고객 경험을 개선하며 지속 가능한 성장을 도모할 수 있도록 지원합니다.
AI 휴먼은 사람들이 AI 기술을 활용하는데 "가장 보편적인 인터페이스"로서 역할을 수행할 수 있습니다.
EST의 AI 휴먼은 사람들의 언어를 이해하고 신속하게 반응할 수 있으며, 또한 다양한 플랫폼에 원활하게 통합될 수 있습니다. 이러한 능력을 바탕으로 EST의 AI 휴먼은 사람들과 디지털 시스템 간의 간극을 메우고 인류에 기여하는 핵심 도구로 자리매김하게 될 것입니다.
언어 모델의 활용 가능성이 높게 평가되는 이유를 이해하고, 언어 모델을 활용하기 위한 구성 요소들을 설명합니다. 또한 다양한 적용 사례 (기업 사례, 온디바이스 AI) 를 통해 향후 생태계의 방향성을 파악하고, 목적에 맞는 최적 사이즈의 언어 모델의 중요성을 이해합니다.
솔루션 데모 전시를 통해 기존의 AI 인프라를 개선하고, 최신 AI 솔루션을 통해 비즈니스의 효율성과 성능을 극대화하는 방법을 직접 확인하고, AI와 비즈니스의 미래를 함께 모색하는 기회가 되시기 바랍니다.
LLAMA2 모델 중 LLAMA2-70B 모델에서 Fine Tuning과 Inference를 실행할 때 Gaudi2에서의 실제 성능을 보여줍니다. Optimum Habana Hugging Face Model을 사용하며 PEFT 또는 LoRA를 적용하고 10,000개 이상의 conversation annotation이 포함된 Openassistant-guanaco corpus를 Fine-tuning하는데에 8개의 Gaudi2 card로 38분만에 완료되는 예를 보여드리고 있습니다. Inference는 고객분들께서 실제로 체험해 보실 수 있습니다. 오른쪽 상단에 있는 Preset Prompt를 선택하시거나 왼쪽 상단에 원하시는 Prompt를 입력하고 Gaudi2가 보여주는 Inference 성능을 체감해보세요.
Retrieval-augmented generation (RAG)는 LLM의 인텔리전스를 private data 또는 추가적인 data set을 통해 real-time으로 확장시키는 기술입니다. RAG on Intel® Xeon® 데모에서는 Langchain framework을 이용, LLM모델을 기반으로 Document를 추가 data set으로 활용하면서 Q&A가 동작하는 데모를 보여드립니다. LLM-Powered RAG은 Intel® Xeon® CPU와 OpenVINO 위에서 동작합니다.
삼성디스플레이는 AI 알고리즘을 활용한 다양한 기술들을 보유하고 있습니다. 고화질을 유지하면서도, 소비전력을 절감할 수 있는 OLED의 기술을 소개합니다.
삼성 메디슨의 온디바이스 AI 솔루션인 Live HeartAssist는 태아심장의 이미지를 실시간으로 분석해, 출산 전에 태아의 선천성 심장 기형을 발견하기 위한 Guideline View를 자동으로 찾아주어, 임상의들의 측정 효율성과 정확도를 향상시키도록 돕습니다.
폴라리스 오피스 On-device AI는 전세계 LLM 리더보드 1위를 차지한 솔트룩스 Luxia 모델 등 강력한 언어 모델 (LLM)을 탑재하고 있어 인터넷 없이도 사용할 수 있는 오피스 AI 서비스로, 개인정보 유출에 대한 걱정 없이 HWP, MS Office, PDF 등 다양한 문서 작업에 AI의 도움을 받을 수 있습니다.
다양한 디바이스 환경에 최적화된 서비스로, AI Human UI를 통해서 LLM 모델 기반 챗봇, AI 비서 등 각 클라이언트에 적합하게 커스텀된 실시간 대화 기능을 제공하고, 총 100여개 이상의 언어를 실시간으로 통역해주는 서비스를 경험하세요.
Upstage WriteUp은 Upstage의 Solar LLM과 Layout Analysis를 활용한 Desktop application으로, 인텔® 코어™ Ultra 프로세서 기반의 LG gram 노트북에 On-device Solar LLM을 탑재하여 자연어 기반 문서 검색, 문서 작성 및 번역 등 사용자의 생산성을 획기적으로 높여주는 솔루션입니다. On-device 상에서 동작함에 따라 고객의 민감 데이터와 정보가 인터넷이나 클라우드에 노출되지 않게 안전한 환경에서 정보처리가 가능해지고, 클라우드 실행으로 인한 비용 절감도 가능하게 합니다.
kubOps는 온디맨드 생성 AI 솔루션으로 On-premise 및 On-device에 Low-code 개발 툴인 kubChain과 사용자 기반의 생성 AI 서비스인 kubBot이 탑재되어 있습니다.
‘Intel의 혁신기술’과 ‘Lenovo의 인프라’를 기반으로 개발된 메사쿠어컴퍼니의 얼굴인식 AI 솔루션 ‘UFACE’와 혁신적인 AI 구현에 효과적인 ‘Lenovo 인프라 솔루션’을 소개합니다.
전세계적으로 AI 네트워크 분야를 최선두에서 이끌고 있는 아리스타 네트웍스의 최신 AI 네트워킹 솔루션 및 Intel Gaudi의 레퍼런스 스위치 모델인 아리스타 400G 및 800G 스위치에 대해 소개합니다.
딥핑소스는 다양한 오프라인 산업 전반에 걸쳐 영상분석 혁신을 선도하며, 비전 AI 기술을 활용하고 있습니다. 이 혁신적인 솔루션은 원본 데이터를 실행 가능한 인사이트로 전환하여 놓친 매출 기회를 정확히 탐색하고, 고객과의 상호작용을 통해 비즈니스 성공을 이끌어 냅니다.
생산 효율성을 극대화하고 제조 공정을 최적화하는 AI 자율제조를 위한 추론 능력이 향상된 엣지 AI 컴퓨터와 모니터링 솔루션 Web ELMS, V-KVM(vPRO 활용)을 소개합니다.
5세대 인텔® 제온® 스케일러블 프로세서가 탑재된 Dell PowerEdge 서버에서 Stable Diffusion 및 Llama2 의 LLM 추론 실행 결과와 인텔® 제온® 에서 GPU 대비 뛰어난 성능을 보여주는 신경과학 AI 솔루션 Numenta Platform for Intelligent Computing 등 다양한 Enterprise AI Solution/Use case 를 통해 Brining AI everywhere의 메시지를 전달합니다.
General Session
수석 부사장 겸 데이터 센터 및 AI 그룹(DCAI) 총괄
Intel Corporation
대표, 인텔코리아
박사, AI Innovation 센터장
네이버 클라우드
메모리사업부 상품기획실장 / 부사장, 삼성전자
Track 1 : AI & Data Center
상무, 인텔코리아
이사, Supermicro
Technical Leader, SK 하이닉스
단장, 연세대학교 미래캠퍼스
리더, 네이버 클라우드
매니저, SK Telecom
상무, 이노뎁
상무, 시스코 코리아
Track 2 : Client Computing & Edge
상무, 인텔코리아
Technical Leader, SK 하이닉스
전무, 솔트룩스
팀장, 신세계아이앤씨
부사장, 메사쿠어컴퍼니
상무, 딥핑소스
대표이사, 이스트소프트
부사장, Upstage