20번째를 맞는 2023 한국슈퍼컴퓨팅컨퍼런스는 HPC 및 계산과학공학 관련 산‧학‧연‧관 전문가 및 학생들이 참여하여 연구개발 성과발표 및 최신기술 교류가 이루어지는 국내 최대의 슈퍼컴퓨팅 관련 학술행사 및 전시회입니다.
KSC는 슈퍼컴퓨팅 활용·지원 및 계산과학연구, 슈퍼컴퓨팅 HW/SW 및 인프라 운영 기술 등 다양한 주제에 대한 발표와 튜토리얼 그리고 관련 기업전시 등을 제공하고 있습니다.
올해로 슈퍼컴퓨터 도입 35주년을 맞는 국가슈퍼컴퓨팅센터는 우리나라 과학기술의 꿈을 실현하는 곳으로, 세계적으로 우리 과학기술자들이 해당분야에서 당당하게 자리매김 할 수 있도록 필요한 지원을 아끼지 않고 있으며, 세계 어디에 내어 놓아도 손색이 없는 ‘국가슈퍼컴퓨팅센터’ 로서 발전해 나갈 것입니다.
본 행사에서 1988년 1호기 도입을 시작으로 지난 35년간의 발자취를 뒤돌아 보며 새로운 비전을 제시하고 향후 발전 방향에 대해 논의를 하고자 합니다.
슈퍼컴퓨팅 관련 최신 기술 동향 및 활용에 관한 초청 발표, HPC 및 첨단연구망 인프라를 포함한 관련 국가 주요 정책 등 주제 발표
인공지능(AI), 빅데이터, 인프라, 양자통신, HPC 등 4차 산업혁명의 핵심기술과 접목된 슈퍼컴퓨팅 및 이기종 융합 기술 관련 내용 발표
슈퍼컴퓨팅 및 연구망 산업체 활용, 신기술 트렌드, 주요 센터의 정책 발표, 가속기 기반 슈퍼컴퓨터 기술 개발, 인공지능 등 커뮤니티 포럼 개최
통합 프레임웍을 위한 프로그래밍 언어와 HPC 및 AI에서 애플리케이션 플랫폼 개발을 위한 최신 기술과 분야별 적용 사례
안녕하십니까?
2023년 한국슈퍼컴퓨팅 컨퍼런스(KSC2023) 조직위원장을 맡은 KISTI 원장 김재수입니다.
최근 국가 초고성능컴퓨터(슈퍼컴퓨터)6호기 구축·운영을 위한 '국가 플래그십 초고성능컴퓨팅 인프라 고도화'사업을 진행하고 있으며, 국가·사회현안 및 과학·공학 문제해결을 위한 슈퍼컴퓨터 활용 연구개발을 지원 및 모든 종류의 과학기술 데이터를 디지털로 자유롭게 공유하는 국가 연구데이터 클라우드센터를 구축할 예정입니다.
코로나 19 팬데믹과 함께 디지털전환 패러다임이 부상하고 데이터 경제가 본격화되고 있으며, 정부 또한 디지털플랫폼정부로의 신속한 전환을 추진하는 가운데 ‘Moving beyond HPC to AI’ 라는 주제로 20번째 한국슈퍼컴퓨팅컨퍼런스를 개최하게 되었습니다.
8월 21일부터 23일까지 3일간 개최될 이번 행사는 다양한 분야의 기조강연과 인공지능 기술 응용, 빅데이터 & AI 연구 활용, 양자정보처리, 양자암호통신, HPC 활용, HPC 인프라 운영 기술동향 등 최신 정보를 다루는 14개의 워크숍, 한국계산과학공학회와 함께 준비한 7개의 커뮤니티 포럼 및 HPC/AI 플랫폼 개발을 위한 프로그래밍 튜토리얼 등으로 구성되어 있습니다.
본 행사가 기초과학적 응용은 물론이고 엑사・양자컴퓨터・AI・빅데이터・소재・나노・우주・자율주행・핵융합 등 4차 산업혁명 핵심기술 관련 슈퍼컴퓨팅 활용에 대한 아이디어를 얻고 산학연의 전문가들이 서로 교류할 수 있는 장이 되기를 기원하며, 많은 관심과 참석을 부탁드립니다.
- 소장
- ㈜에스엔에이치 기술연구소
인류의 과학기술은 역사적 상황과 밀접하게 연결되어 있으며, 당시의 사회 문화적 배경과 연관되어 발전되어 왔다. 주목할 점은 역사상 중요한 과학적 성과에는 언제나 계산 과학자들이 있었다.
파스칼과 대립하던 데카르트의 '생각한다 고로 존재한다'라는 서구 최초의 근대적 철학은 해석 기하학을 탄생시키고, 이에 대한 논쟁에서 뉴턴 '프린키피아'의 중력 법칙이 탄생했다. 여기서 촉발된 서구의 과학혁명은 베르누이와 오일러로 이어지며 당대 과학자들과 치열한 경쟁을 하게 된다.
이들 과학혁명의 후계자들은 그들에게 닥친 프랑스 혁명과 나폴레옹 시대와 결코 분리될 수 없는 삶을 살았고, 그들의 업적 역시 당대의 정치적 상황과 절대 무관하지 않았음을 보여준다.
이번 강연에서는 19세기의 산업혁명에도 영향을 미친 계산 과학자들, 특히 찰스 배비지의 시대를 조명하며 당시의 과학적 논쟁들이 역사적 상황과 맞물려 어떻게 상대성이론과 양자역학 등의 현대 물리학으로 연결되는지를 보여준다.
또한, 이러한 잘 알려지지 않았던 계산 과학자들의 숨겨진 이야기들을 통해 당대의 정치, 경제뿐 아니라 음악, 미술, 문학 등의 문화예술에 미친 영향도 같이 살펴보도록 한다.
Bio :
서울 대학교 기계 공학과를 졸업하고 같은 대학교 대학원에서 석사 학위와 박사 학위를 받았다. 미국 UCLA 연구원, 삼성전자 수석 연구원으로 재직했고, 현재 (주)에스엔에이치 연구소 소장으로 있다. 터보차저 및 우주 항공 부품을 개발하는 연구와 한국형 발사체 엔진 개발에 참여하고 있다. 인용 건수가 전 세계 상위 1퍼센트 안에 드는 논문들을 모아 놓은 ISI HCP(Highly Cited Paper)에 2008년, 2009년 연속으로 선정되었으며, 2016년 한국산학연협회상을 수상했다.
Educational History
Employment History
- 센터장
- 기상청 국가기상슈퍼컴퓨터센터
기상청은 1980년대 예보관의 주관에 의존하던 주관적 예보에서 수치예보모델을 활용한 객관적 예보로 발전시키기 위해 정부전자계산소의 UNIVAC 컴퓨터를 이용하여 수치예보 연구를 수행하였다.
1991년부터는 KISTI의 전신인 SERI에서 도입한 대한민국 슈퍼컴퓨터 1호 CRAY-2S를 활용하여 우리나라 최초의 현업용 수치예보모델인 ALAM, FLAM을 운영하기 시작하였으며, 그 이후 수치예보를 활용한 객관적 일기예보의 효용성이 입증되어 본격적인 기상청의 슈퍼컴퓨터 시대가 시작되었다.
기상청은 2000년에 기상슈퍼컴퓨터 1호기(NEC, SX-5/28A) 도입을 시작으로 2005년 2호기(Cray X1E), 2010년 3호기(Cray XE6), 2015년 4호기(Cray XC40), 2021년 5호기(LENOVO SD650)까지 지속적으로 슈퍼컴퓨터 계산능력을 향상하고, 수치예보모델 개선을 통해 예보정확도를 높여왔다.
기상청은 1991년 KISTI 슈퍼컴퓨터에서 수치예보 현업운영을 시작한지 30년 만에 세계 9번째로 한국형수치예보모델을 개발‧운영하는 기상기술력을 확보하였고, 국가기상슈퍼컴퓨터에서 산출되는 한국형수치예보모델 데이터는 국가 기후변화 대응지원과 영향예보 서비스에 활용되어 기상재해로부터 국민의 생명과 재산을 지키는데 기여하고 있다.
Bio :
서울대학교 대기과학과를 졸업하였고, 동 대학원에서 석사 과정을 마쳤다. 그리고 플로리다 주립대학교에서 박사 학위를 취득하였다. 강원지방기상청 예보과장, 본청 총괄예보관을 거쳐 현재 기상청의 심장인 국가기상슈퍼컴퓨터센터 센터장으로 있다.
Educational History
Employment History
- 교수
- 성균관대학교 화학공학과
인공지능 시대가 본격적으로 열리면서, 교육과 연구 현장에서 활용되는 계산과학에 있어서도 인공지능의 영향도 더불어 확장되고 있다. 그러나 인공지능 알고리듬 자체를 개발하는 것 뿐만 아니라, 개발된 인공지능 툴과 방법론을 실제 연구 및 교육 현장에서 실전 문제 풀이에 활용할 수 있는 방법은 한정되어 있다.
특정한 전공 분야를 넘어, 일반적으로 적용될 수 있는 이공계 분야에서의 수치해석 방법론의 보다 효과적인 적용을 위해, 인공지능 툴의 직접적인 적용에 앞서, 다양한 분야가 융합될 수 있는 수치해석 방법론의 교육 및 실전 문제 적용 전략에 대한 분석이 필요하다.
이 발표에서는 일선 대학 학부 및 대학원 교과 과정에서 축적된 물리, 정보이론, 그리고 공학이 융합된 다양한 수치해석 교육과 케이스 스터디 사례를 발표할 것이다.
본 발표와 발표에서 언급된 다양한 케이스를 통해, 향후 인공지능이 하나의 툴로서 수치해석에서 자리잡는 시대가 되는 상황에서도 더욱 융합적인 수치해석 및 계산과학 분야로의 확장을 모색할 수 있는 인사이트를 공유할 수 있을 것이라 기대한다.
Bio :
서울대 화학생물공학부를 졸업하고 동대학원에서 석사학위를, 미국 매사추세츠공대(MIT)에서 화학공학 박사학위를 받았다. 한국과학기술연구원(KIST) 첨단소재연구본부에서 책임연구원을 지냈으며 반도체 신소재와 차세대 반도체 분야에 관한 다수의 연구 논문을 발표했다.
Educational History
Employment History
슈퍼컴퓨터 도입 35주년 기념식 & KSC2023 개회식 | |
|
|
Time | Program |
10:00~11:00 | Keynote Speech 1 - 혁명과 낭만의 과학, 그리고 과학사 속의 계산 과학자들 민태기 소장(㈜에스엔에이치 기술연구소) |
11:00~11:10 | Break |
11:10~12:00 | 슈퍼컴퓨터 도입 35주년 기념식 & KSC2023 개회식 |
개회사 김재수 원장 (한국과학기술정보연구원, KSC2023 조직위원장) |
|
환영사 곽호상 총장 (국립금오공과대학교, 한국초고성능컴퓨팅포럼 공동의장) |
|
축사 김복철 이사장(국가과학기술연구회) |
|
축사 안문석 자문위원(디지털플랫폼정부위원회) |
|
12:00~13:00 | Luncheon |
13:30~18:00 | Workshop |
18:30~20:00 | Welcome Dinner |
KSC2023 Keynote Speech | |
|
|
Time | Program |
10:00~11:00 | Keynote Speech 2 - 국민의 안전을 지키는 국가기상슈퍼컴퓨터 장근일 센터장(기상청 국가기상슈퍼컴퓨터센터) |
11:00~11:10 | Break |
11:10~12:10 | Keynote Speech 3 - 물리, 정보이론 그리고 공학이 융합된 수치해석 교과 과목 개발 및 운영 전략 권석준 교수(성균관대학교 화학공학과) |
12:10~13:00 | Luncheon |
Intel® oneAPI 사례 발표 및 실습 핸즈-온 (거문고 C) | |
|
|
Time | Program |
13:00~13:30 | 환영사 및 Intel® oneAPI 소개 박종일 상무(인텔코리아) |
13:30~13:50 | oneAPI 사례발표 1 : HPC/AI innovation with Intel® oneAPI 정진우 부장(모아시스㈜) |
13:50~14:10 | oneAPI 사례발표 2 : PyTorch 2.0 AI 가속을 활용한 해상 객체 인식 하성욱 연구소장(KMCP) |
14:10~14:30 | oneAPI 사례발표 3 : Building Multi-Architecture, High-Performance Computing (멀티 아키텍처, 고성능 컴퓨팅 개발) 김성윤 소장(㈜테라텍) |
14:30~15:30 | 실습 세션 1 : Heterogeneous 컴퓨팅 개념 소개와 oneAPI SYCL 및 SYCLomatic 사용법 김태훈 상무 / 박종일 상무(인텔코리아) |
15:30~16:00 | Break |
16:00~16:40 | 실습 세션 2 : Workload 분석을 위한 oneAPI Analyzers (VTune Profiler) 김태훈 상무 / 박종일 상무(인텔코리아) |
16:40~17:20 | 실습 세션 3 : Intel Performance Libraries (oneMKL) 사용 및 결과 해석 김태훈 상무 / 박종일 상무(인텔코리아) |
17:20~17:30 | 질의응답 |
Tutorial - Intel® oneAPI 사례 발표 및 실습 핸즈-온
박종일
- 상무
- 인텔코리아
Intel® oneAPI 소개
Intel® oneAPI를 사용하면 어떤 이점이 있나요?
- GPU, AI 가속기 및 FGPA를 포함한 여러 컴퓨팅 아키텍처를 위한 하나의 통합 프로그래밍 모델로 코드 장벽을 제거해 줍니다.
- 코드 기반 프로그래밍 언어를 쉽게 유지 관리할 수 있습니다.
- 친숙한 언어와 표준을 기반으로 하는 완전한 크로스 플랫폼 라이브러리, 도구 및 프레임워크를 제공하여 이기종 개발을 더 쉽게 만들어 줍니다.
- 개발자가 최신 하드웨어의 최첨단 기능을 활용하여 최대의 성능을 발휘할 수 있도록 지원합니다.
Educational History
Employment History
Tutorial - Intel® oneAPI 사례 발표 및 실습 핸즈-온
정진우
- 부장
- 모아시스㈜
HPC/AI innovation with Intel® oneAPI
oneAPI는 여러 아키텍처 소프트웨어 개발을 용이하게 하고 최적의 하드웨어를 자유롭게 선택할 수 있는 크로스 아키텍처 프로그래밍 모델입니다. oneAPI에서는 효율적인 소프트웨어 개발을 가능하게 하기 위해 다양한 툴킷을 제공합니다.
'oneAPI 기반 툴킷'은 인텔의 CPU, GPU, FPGA에서 고성능 애플리케이션을 개발하기 위한 기본 툴과 라이브러리의 기본 세트입니다. oneAPI HPC 툴킷, C/C++, Fortran 컴파일러, MPI 개발 툴을 통해 CPU 및 액셀러레이터 또는 해당 클러스터에 최적화된 HPC 애플리케이션 개발을 지원합니다.
이번 세션에서는 oneAPI를 통해 가속 컴퓨팅 및 AI을 개발하기 위한 스마트한 방식을 소개합니다.
Educational History
Employment History
Tutorial - Intel® oneAPI 사례 발표 및 실습 핸즈-온
하성욱
- 연구소장
- KMCP(Korea Marine Consulting &Project Management)
PyTorch 2.0 AI 가속을 활용한 해상 객체 인식
선박의 자율 운항에 있어서 해상의 객체를 파악하고, 이동 가능한 수면식별은 필수적입니다. 해상 객체 인식은 YOLOv7을 적용하고, 수면 인식은 YOLOv7-Seg를 적용합니다. PyTorch 기반으로 초반 학습한 이후 선학습 모델로 수집된 데이터를 자동 라벨링하며, 추가 학습합니다. 학습과 추론에 있어서 Intel® Extension을 활용합니다.
이번 세션에서는 oneDNN 적용 방법과 자동 라벨링 알고리즘을 적용한 코드 고도화를 소개합니다.
Educational History
Employment History
Tutorial - Intel® oneAPI 사례 발표 및 실습 핸즈-온
김성윤
- 소장
- ㈜테라텍
Building Multi-Architecture, High-Performance Computing (멀티 아키텍처, 고성능 컴퓨팅 개발)
빠르고 확장 가능한 병렬 코드로 HPC, 엔터프라이즈, AI 및 클라우드 애플리케이션을 최대한 활용할 수 있습니다. Intel® oneAPI 베이스 툴킷과 인텔® oneAPI HPC 툴킷은 최신 코드를 빠르고 쉽게 빌드할 수 있는 포괄적인 개발 툴 제품군입니다. 고성능 컴퓨팅(HPC) 플랫폼의 최신 인텔® 프로세서에서 가능한 모든 성능을 얻을 수 있습니다.
Intel® oneAPI 베이스 툴킷의 핵심 도구 세트를 결합하고 HPC 중심 도구를 추가하면 벡터화 최신 기술이 적용된 코드 생성을 간소화합니다. 벡터화, 멀티스레딩, 멀티노드, 메모리 최적화, 그리고 가속기 오프로딩 등 강력하고 일관된 프로그래밍을 제공합니다.
이번 세션에서는 3세대 및 4세대 인텔® 제온® 스케일러블 프로세서 성능 테스트 결과 및 HPC 구축방법을 소개합니다.
Educational History
Employment History
Tutorial - Intel® oneAPI 사례 발표 및 실습 핸즈-온
김태훈
- 상무
- 인텔코리아
실습 데모 1 : Heterogeneous 컴퓨팅 개념과 oneAPI SYCL 및 SYCLomatic 사용법
Heterogeneous 컴퓨팅의 개념과 역사를 살펴보고, Heterogeneous 컴퓨팅을 위한 Intel® oneAPI SYCL과 SYCLomatic을 사용하여 CUDA를 SYCL로 바꾸는 사례 소개합니다.
Educational History
Employment History
Tutorial - Intel® oneAPI 사례 발표 및 실습 핸즈-온
김태훈
- 상무
- 인텔코리아
실습 데모 2 : Workload 분석을 위한 oneAPI Analyzers (VTune Profiler)
Intel® oneAPI의 workload 성능분석 도구인 Intel® VTune Profiler을 이용하여 HPC에서 workload 성능을 분석해봅니다.
Educational History
Employment History
Tutorial - Intel® oneAPI 사례 발표 및 실습 핸즈-온
김태훈
- 상무
- 인텔코리아
실습 데모 3 : Intel Performance Libraries (oneMKL) 사용 및 결과 해석
Intel® oneMKL사용과 workload 최적화 과정을 실습합니다.
Educational History
Employment History
Workshop 1 - 슈퍼컴퓨팅 인프라 운영 및 서비스 기술 (거문고 C) | |
|
|
Time | Program |
Session 1 : AI 환경의 차세대 아키텍처 동향 | |
13:30~14:00 | Tenstorrent RISC-V CPU and AI Accelerator for HPC Yasuo Ishii (CPU Architecture Fellow, Tenstorrent) |
14:00~14:30 | Democratizing AI with SAPEON AI accelerators 장창섭 매니저(SAPEON) |
14:30~15:00 | 차세대 가속기 IPU(Graphcore) 박문기 이사(메가존클라우드) |
15:00~15:30 | World largest AI supercomputer Isaac Ye (HPC/ML Solutions Architect, Cerebras) |
15:30~16:00 | The Language Processing Unit by Groq: Leveraging Software-defined Hardware for a New Market Category Sean Settle (AI Architect, Groq) |
16:00~16:20 | Break |
Session 2 : 공공분야 차세대 인프라 서비스 현황 | |
16:20~16:50 | 인공지능 데이터센터 추진 현황 및 계획 박종선 책임(AICA) |
16:50~17:20 | HPC-AI Open Infrastructure: Buildup & Operation 김종원 교수(GIST) |
17:20~17:50 | KISTI 뉴론 시스템 및 MyKSC 웹포털 서비스 소개 권민우 박사(KISTI) |
Workshop - 슈퍼컴퓨팅 인프라 운영 및 서비스 기술
장창섭
- Manager
- SAPEON
Democratizing AI with SAPEON AI accelerators
SAPEON 은 미국 캘리포니아에 본사를 둔 AI 반도체 팹리스로, 데이터센터향 AI 반도체를 개발하고 있습니다. SAPEON 의 X220 은 국내 최초로 상용화된 서버용 반도체로, 국내외 주요 기업 및 기관에서 다양한 AI 추론에서 활발하게 사용되고 있습니다. X220의 압도적인 전력대비 성능은 MLPerf에서 기술적 우수성을 인정받은 바 있습니다.
AI 반도체의 성공을 위해서는 단순히 고성능의 Chip을 개발하는 것뿐만 아니라, AI 모델로 추론할 수 있게끔 하는 SDK, 클라우드 기반 Inference Serving Platform 등 Full-stack 시스템이 요구됩니다.
본 세션에서는, AI 반도체의 상용서비스 적용을 가속화 하기 위한 SAPEON 의 기술 Stack을 살펴보고 이를 통해 ‘Democratizing AI’를 달성하고 있는 SAPEON 의 여정을 소개드리고자 합니다.
Educational History
Employment History
Workshop - 슈퍼컴퓨팅 인프라 운영 및 서비스 기술
Yasuo Ishii
- Tenstorrent CPU Architecture Fellow
- Tentorrent.Inc
Tenstorrent RISC-V CPU and AI Accelerator for Future High-Performance Computing
Tenstorrent's Advanced Solution: High-Performance RISC-V CPU with AI Accelerator Integration
Tenstorrent's Scalable Architecture: High-Performance RISC-V Core and AI Accelerator for HPC
Overcoming AI Integration Challenges: A Comprehensive Perspective on Tenstorrent's Potential
Educational History
Employment History
Workshop - 슈퍼컴퓨팅 인프라 운영 및 서비스 기술
박문기
- 팀장
- 메가존클라우드(주)
차세대 가속기 IPU(GRAPHCORE)제품 및 AI HPC Platform 소개
Graphcore IPU-GC200은 2세대 Colossus™ MK2 IPU 프로세서인 GC200을 소개합니다. IPU는 기계 지능을 가속화하기 위해 처음부터 Poplar® SDK와 공동 설계한 완전히 새로운 종류의 대규모 병렬 프로세서입니다. 1세대 Colossus IPU 이후 우리는 실리콘 및 시스템 아키텍처에서 컴퓨팅, 통신 및 메모리의 획기적인 발전을 개발하여 MK1 IPU에 비해 실제 성능이 8배 향상되었습니다. GC200은 Poplar 소프트웨어 덕분에 사용하기 쉬운 세계에서 가장 복잡한 프로세서이므로 혁신가는 AI 혁신을 이룰 수 있습니다.
Graphcore Bow 3세대 IPU는 WoW(Wafer-on-Wafer) 3D 스태킹 기술을 사용하는 세계 최초의 프로세서로 IPU의 검증된 이점을 한 단계 끌어올립니다.
컴퓨팅 아키텍처 및 실리콘 구현, 통신 및 메모리의 획기적인 발전을 특징으로 하는 각 Bow IPU는 최대 350테라플롭스의 AI 컴퓨팅을 제공하며 이전 세대 IPU에 비해 성능이 40% 향상되었으며 전력 효율성이 최대 16% 향상되었습니다.
Educational History
Employment History
Workshop - 슈퍼컴퓨팅 인프라 운영 및 서비스 기술
Isaac Ye (예 기헌)
- HPC/ML Solutions Architect
- Cerebras Systems Inc.
World largest AI supercomputer
Condor Galaxy 1 (CG-1) is the largest AI supercomputer in the world. Cerebras Systems, the pioneer in accelerating generative AI, and G42, the UAE-based technology holding group, collaborated to offer a new approach to AI compute that promises to significantly reduce AI model training time. The first AI supercomputer on this network, Condor Galaxy 1 (CG-1), has 4 exaFLOPs and 54 million cores. Cerebras and G42 are planning to deploy two more such supercomputers, CG-2 and CG-3, in the U.S. in early 2024. With a planned capacity of 36 exaFLOPs in total, this unprecedented supercomputing network will revolutionize the advancement of AI globally.
The presentation will introduce what technologies Cerebras has makes this possible and how the Generative AI workloads can benefit from it.
Educational History
Employment History
Workshop - 슈퍼컴퓨팅 인프라 운영 및 서비스 기술
Sean O. Settle
- Sr. Staff Machine Learning Technology Specialist
- Groq, Inc.
The Language Processing Unit by Groq: Leveraging Software-defined Hardware for a New Market Category
As machine learning applications continue to evolve and mature, the primary cost of compute infrastructure has been shifting from training to inference due to the explosion in the number of end-users, as recently demonstrated by Large Language Models (LLMs) like OpenAI's ChatGPT and Meta's LLaMa. In anticipation of this trend, Groq built a Language Processing Unit (LPU) and is currently delivering HPC and AI/ML solutions optimized for efficient, high-throughput, low-latency inference at scale. At the heart of Groq's first LPU is a fully-deterministic Tensor Streaming Processor (TSP), which we will describe in detail, as well as the incredibly powerful Groq™ Compiler and runtime technology that's included in the GroqWare™ Suite SDK. Finally, we will present case studies highlighting significant performance advantages from several key differentiating features of the synchronous Groq software and hardware ecosystem.
Educational History
Employment History
Workshop - 슈퍼컴퓨팅 인프라 운영 및 서비스 기술
박종선
- 책임연구원
- 인공지능산업융합사업단(AICA)
인공지능 데이터센터 추진 현황 및 계획
인공지능산업융합사업단은 AI 국가전략의 일환으로 과학기술정보통신부, 광주광역시와 함께 첨단3지구에 AI산업융합 집적단지를 조성 중이며, 데이터 중심의 AI 데이터센터 및 실증센터 구축, AI 창업 및 기업 지원, AI 인재 양성 등 AI 산업융합 생태계 조성에 필요한 집적단지 조성 사업을 추진하고 있습니다.
특히 AI 데이터센터는 AI 개발환경, 소프트웨어 등의 컴퓨팅 자원 제공 및 운영 플랫폼 구축을 통해 AI집적단지 중심의 산업 생태계 조성에 기여하고 있습니다. 이를 위해 AI개발 및 서비스 등에 필요한 HPC/가속기팜(총 88.5PF) 및 스토리지(총 107PB) 자원 제공(IaaS, PaaS, SaaS)을 통해 다양한 기업(관)을 지원하고 있습니다.
이번 자리를 통해 그 간 인공지능산업융합사업단의 AI 데이터센터 추진 현황의 소개와 ’23년 본격 서비스를 위한 자원구축/AI 데이터센터 서비스 계획에 대해 살펴보고자 합니다.
Educational History
Employment History
Workshop - 슈퍼컴퓨팅 인프라 운영 및 서비스 기술
김종원 (JongWon Kim)
- 센터장
- GIST SCENT
HPC-AI Open Infrastructure: Buildup & Operation
본 발표에서는 GIST 슈퍼컴퓨팅센터에서 23년 4월부터 정식운영을 개시한 HPC-AI 공용인프라인 DREAM-AI 클러스터의 구축과 운영 전반에 대한 소개를 다음과 같이 진행한다.
먼저 HPC-AI 인프라를 HPL 기준 64비트 실효치 연산량 3.178PF, 플래시 1PB를 포함한 저장공간 10PB 규모로 구축하여, `22년 11월 기준으로 Top 500 리스트의 178위에 등재한 구축 과정을 소개한다.
구축된 장비는 200Gb 초고속 패브릭 네트워킹으로 연결되어 국내 GPU 인프라가 제공하기 힘든 초당 150GB 수준의 최고속으로 입출력되는 데이터를 최상급 A100 GPU 320장을 통합해 하나로 활용하는 멀티-노드 HPC-AI 컴퓨팅을 효과적으로 지원한다. 또한 클라우드-네이티브 운영 방식과 접목한 컨테이너 기반의 HPC-AI 컴퓨팅을 지원하면서, DevSecOps 자동화 개념에 근거한 관제와 연계시켜 발전시키고 있는 운영 방식을 설명한다.
마지막으로는 개방형 사용자 서비스 지원의 유연성을 개선하고, 자율주행 및 디지털트윈 분야에 대한 특화활용을 지원하기 위한 향후 개선 방향을 소개하고자 한다.
Educational History
Employment History
Workshop - 슈퍼컴퓨팅 인프라 운영 및 서비스 기술
권민우
- 선임연구원
- KISTI
KISTI 뉴론 시스템 및 MyKSC 웹포털 서비스 소개
슈퍼컴퓨터 5호기 보조 시스템인 뉴론(Neuron)은 메인시스템(누리온)과 차별화된 다양한 AI 인프라를 제공하기 위한 목적으로 서비스되고 있다. 뉴론은 GPU를 통한 성능 가속이 뛰어난 분자동역학이나 전자구조계산 분야의 연구와 기계학습(Machine Learning/Deep Learning) 및 빅데이터 분야의 연구∙개발을 지원하고 있다. 뉴론은 작업스케줄러(SLURM)를 이용해 사용자들이 제출한 작업을 스케줄링하는 방식으로 계산자원을 제공하고 있다. 본 발표를 통해 시스템에 대한 소개, 운영 현황, 사용자 서비스 현황, 스케줄링 정책 및 MyKSC에 대한 소개를 진행하고자 한다.
Educational History
Employment History
Workshop 2 - 플랫폼 기반 전자구조 및 TCAD 계산의 현재와 미래 (대금) | |
|
|
Time | Program |
13:00~13:30 | Efficient simulations of laterally inhomogeneous devices based on the density functional theory and non-equilibrium Green's function method 신민철 교수(KAIST) |
13:30~14:00 | Recent research trends for acceleration of semiconductor device simulation 홍성민 교수(GIST) |
14:00~14:30 | 반도체공정 전산모사의 현황과 전망 임연호 교수(전북대) |
14:30~14:45 | Break |
14:45~15:15 | 기계학습 포텐셜을 이용한 반도체 공정 시뮬레이션 한승우 교수(서울대) |
15:15~15:45 | Fascinating physics of ferroelectric hafnia for industrial applications 최덕현 수석(삼성종기원) |
15:45~16:15 | Advancements in quantum materials and devices design: Insights from evolutionary learning and artificial neural networks 이인호 책임연구원(KRISS) |
16:15~16:30 | Break |
16:30~17:00 | Data-driven Materials’ Discovery from Experimental Research Data 장현주 책임연구원(한국화학연구원) |
17:00~17:30 | 연구 산업 관점에서 보는 계산과학 웹플랫폼 김승철 책임연구원(KIST) |
17:30~18:00 | 클라우드와 플랫폼 기반의 디지털 연구 방법론 확산 이민호 대표이사(버추얼랩) |
Workshop - 플랫폼 기반 전자구조 및 TCAD 계산의 현재와 미래
신민철 (Mincheol Shin)
- 교수
- 한국과학기술원(KAIST)
Efficient Simulations of Laterally Inhomogeneous Devices Based on the Density Functional Theory and Non-equilibrium Green's Function Method
In this work we present a highly efficient simulation methodology for conducting quantum transport simulations of inhomogeneous devices in the direction of charge transport, based on the density functional theory (DFT) and non-equilibrium Green's function (NEGF) method.
The lateral non-uniformity in terms of atom types, cross-sectional areas, defects, irregular surfaces, and other factors is naturally captured in the DFT generated Hamiltonian, which is reduced in size by the novel technique of the heterostructure mode space method.
The method is showcased for III-V heterostructure tunnel field effect transistors (FETs), 2D vertical bilayer FETs, nanowire FETs with defects, and nanowire FETs with surface roughness.
Furthermore, we introduce the core charge approximation to NEGF as a solution to address the ambiguity associated with the commonly-used effective charge approximation when dealing with the Schottky barrier FETs with silicide/semiconductor junctions.
Educational History
Employment History
Workshop - 플랫폼 기반 전자구조 및 TCAD 계산의 현재와 미래
홍성민 (Sung-Min Hong)
- 부교수
- 광주과학기술원(GIST)
Recent Research Trends for Acceleration of Semiconductor Device Simulation
In this work, we explore the topic of accelerated semiconductor device simulation. Recent advancements in this field have utilized machine learning techniques to mimic the simulation solutions.
This presentation critically reviews these recent works, examining their effectiveness and limitations. Additionally, we introduce an alternative approach to accelerate the semiconductor device simulation, which is based on the compact charge model and the 1D continuity model. Several issues and their potential solutions will be briefly discussed.
Educational History
Employment History
Workshop - 플랫폼 기반 전자구조 및 TCAD 계산의 현재와 미래
임연호
- 교수
- 전북대학교 화학공학부
반도체공정 전산모사의 현황과 전망
차세대 반도체공정은 삼차원 반도체 구조의 다변화와 함께 새로운 도전들에 직면하고 있다. 기존 나노스케일 반도체공정들은 물리화학적 현상론적 해석보다 선행 개발의 필요성으로 인해 경험론적 개발에 의존하고 있는 실정이다. 그나마, 일부 상용 해석 소프트웨어는 선진 반도체 장비 회사에 인수 합병되어 국내 반도체 현장의 어려움이 가중되고 있는 상황이다.
본 발표에서는 국내에서 개발되고 있는 반도체 공정 전산 소프트웨어의 현황과 함께 실제 현장과의 거리감을 줄이기 위한 방법론들을 소개하고자 한다. 이를 위한 선행된 산학연 컨소시엄 형태의 실험과 물성 DB 확보를 위한 접근 방식들을 논의하고자 한다.
향후 반도체공정 전산모사의 전망은 해외 선진사례를 중심으로 전산해석의 이론적 한계를 인지하고 기 경험론적 개발 방식들을 접목한 인공지능의 활용 사례를 소개하고자 한다.
Educational History
Employment History
Workshop - 플랫폼 기반 전자구조 및 TCAD 계산의 현재와 미래
이인호 (In-Ho Lee)
- 책임연구원
- 한국표준과학연구원(KRISS)
Advancements in quantum materials and devices design: Insights from evolutionary learning and artificial neural networks
We intend to present the research results on the design of super functional quantum materials and devices utilizing evolutionary learning and artificial neural networks.
By combining first-principles electronic structure calculations, electromagnetic wave simulations, and evolutionary learning methods, we were able to design quantum materials and devices. Additionally, we developed a crystal structure generation model using artificial neural networks, enabling us to explore new crystal structures. We aim to present the results of our applied research, focusing on specific case studies.
Educational History
Employment History
Workshop - 플랫폼 기반 전자구조 및 TCAD 계산의 현재와 미래
장현주
- 책임연구원
- 한국화학연구원(KRICT)
Data-driven Materials’ Discovery from Experimental Research Data
Recently, many data-driven studies have been reported in materials science. Many data-driven studies of materials mainly utilize databases based on first-principles calculations. However, machine learning prediction models from computational data tend to be confined to the limitations of computational properties. To develop new materials, it is necessary to build a machine learning prediction model based on data generated from actual experimental research.
In this presentation, we would like to introduce recent works that collect experimental data from the entire material development cycle. First, we built a web-based platform to collect the research data easily and build a machine-learning prediction model from the collected data. As an example, I will discuss the following topics. [1] SnSe-based thermoelectric material development, [2] Reaction condition optimization for non-oxidative conversion of methane, [3] Closed-loop optimization of catalyst for oxidative propane dehydrogenation with CO2.
Educational History
Employment History
Workshop - 플랫폼 기반 전자구조 및 TCAD 계산의 현재와 미래
최덕현 (Duk-Hyun CHOE)
- 수석연구원
- 삼성종합기술원(SAIT)
Fascinating physics of ferroelectric hafnia for industrial applications
Ferroelectric (FE) hafnia exhibits ultra-scalable ferroelectricity that is compatible with Si electronics, providing an unprecedented opportunity for the use of FEs in advanced memory and logic devices. Despite some promise of proof-of-concept devices, their practical engineering is still largely relying on laborious trial-and-error process that lacks a clear theoretical guidance, and it remains challenging to rationally design the FE devices for targeted applications. Thus, the community is now calling for more fundamental investigations on the physics of ferroelectricity in hafnia.
In this talk, we briefly review the status of the field [1] and provide our new understanding on FE switching of hafnia. We introduce an ultralow FE switching mechanism that can enable rapid growth of the FE domains in hafnia [2]. Furthermore, we establish a new class of topological domain walls in HfO2, which can help understand complex domain structures often present in FE hafnia samples. If time allows, we will share some of our recent experimental efforts on the application of hafnia-based ferroelectrics to future memory and logic devices.
[1] {J. Y. Park, D.-H. Choe, D. H. Lee} et al., Adv. Mater. 2023, 2214970 (2022)
[2] D.-H. Choe et al., Mater. Today 50, 8 (2021)
[3] {S. Jo, H. Lee}, D.-H. Choe et al., Nature Electron. 6, 390 (2023)
Educational History
Employment History
Workshop - 플랫폼 기반 전자구조 및 TCAD 계산의 현재와 미래
한승우
- 교수
- 서울대학교 재료공학부
기계학습 포텐셜을 이용한 반도체 공정 시뮬레이션
As electronic devices scale down below 10 nm and new materials are introduced into mainstream devices, the atomistic simulation on semiconductor processes has become ever more important. In particular, molecular dynamics (MD) simulation allows for understanding detailed mechanism for specific processes, providing valuable information that is not accessible in experiments.
Recently, machine-learning approaches to developing classical potentials are attracting considerable attention because it is poised to overcome the major shortcoming inherent to the classical potential and first-principles method. In particular, the high-dimensional neural network potential (NNP) is attracting wide interests.
In this presentation, we first introduce a highly efficient in-house code for training and executing NNP called SIMPLE-NN. The code has a unique feature such as GDF weighting that balances the sampling bias in the training set. We present application examples various processes in semiconductor devices.
Educational History
Employment History
Workshop - 플랫폼 기반 전자구조 및 TCAD 계산의 현재와 미래
김승철 (Seungchul Kim)
- 책임연구원
- 한국과학기술연구원(KIST)
연구 산업 관점에서 보는 계산과학 웹플랫폼
연구 활동은 일반인의 선입견과는 다르게 창의적 활동이 아니라 대부분 노동집약적인 반복 작업으로 채워져 있다. 이는 불확실성이 높은 연구의 본질적 특성 때문이기도 하지만 효율적인 연구 장비 개발과 보급이 지연되고 있기 때문이기도 하다.
특히, 전 분야에서 신규 인력이 빠르게 줄어들고 있는 한국에서는 축소되는 연구그룹으로도 연구를 지속하기 위해 개별 연구 기술 활용에 대한 노동 효율을 끌어올리면서 동시에 개별 연구자가 여러 가지 연구 기술을 활용할 수 있는 연구 환경이 필요하다. 이 문제는 과학연구 대상이 아니라 연구 장비, 방법 개발과 연구 서비스 제공이라는 연구 산업적 관점에서 해결할 문제들이고, 전산모사 웹플랫폼은 컴퓨터 자원과 소프트웨어를 모두 제공함으로써 재료 전산모사 분야에서 이 문제를 해결하는 대안이 될 수 있다.
본 발표에서는 KIST에서 개발한 전산모사 웹플랫폼을 중심으로 플랫폼 예시, 확장 가능성, 전산모사 산업 생태계에 대한 논의와 플랫폼 제작에서 발생하는 기술적 문제와 전산모사 연구자와 IT 개발자의 역할에 대해 논의하겠다.
Educational History
Employment History
Workshop - 플랫폼 기반 전자구조 및 TCAD 계산의 현재와 미래
이민호
- 대표이사
- ㈜버추얼랩
클라우드와 플랫폼 기반의 디지털 연구 방법론 확산
2000년대 초반부터 아마존 웹 서비스, 구글, 마이크로소프트 등 대형 IT 기업을 중심으로 상업 및 공공 영역 IT업무에서 빠르게 확산되고 있는 클라우드 컴퓨팅은 서버, 스토리지, 데이터베이스, 네트워킹 및 소프트웨어, 인공지능과 같은 IT 리소스를 인터넷을 통해 빠르고 유연하게 제공함으로써 IT리소스 활용의 진입장벽을 크게 낮추었고, 이는 현대 IT 환경 변화에서 중추적인 역할을 담당하고 있다.
한편, 보다 높은 용량의 배터리, 더 높은 성능의 반도체 소자와 같이 주요 산업 분야에서 요구되는 소재의 물성을 만족시키기 위해 수행되고 있는 다양한 신소재 공학 분야의 연구개발은 디지털 트윈 및 디지털 트랜스포메이션과 같이 시뮬레이션/기계학습과 같은 디지털 방법론을 바탕으로 기존 연구방식에서 발생하였던 막대한 시간/비용적 리스크를 줄이기 위한 시도가 이루어지고 있으나, 디지털 기술의 도입 과정중 발생하는 하드웨어, 소프트웨어 및 새로운 방법론등의 IT요소들은 디지털 기술을 도입하고자 하는 소재 연구자에게 새로운 진입장벽으로 작용하고 있다.
본 발표에서는 클라우드 기반 소재 연구개발 플랫폼 "Materials Square"의 사례를 바탕으로, 클라우드와 플랫폼을 통해 디지털 연구방법론을 전 세계 소재 연구자들에게 확산시키는 사례에 대해 소개한다.
Educational History
Employment History
Workshop 3 - 초고성능컴퓨팅 자원․기술/산업 현황 및 활용 활성화 방안 (거문고 A) | |
|
|
Time | Program |
Session 1 : 초고성능컴퓨팅 인프라 | |
13:30~14:00 | HPC 이노베이션 허브 시스템 소개 김지웅 책임연구원(TTA, AI융합기획단) |
14:00~14:30 | IBS 초고성능컴퓨팅 자원 운영 현황 허무영 센터장(IBS) |
Session 2 : 초고성능컴퓨팅 기술․산업 | |
14:30~15:00 | High Performance Inference Chip for ChatGPT 백준호(퓨리오사 AI) |
15:00~15:30 | Break |
15:30~16:00 | 고성능 컴퓨팅(HPC) 플랫폼을 위한 하드웨어 설계 및 구현 홍영찬 이사(KTNF) |
16:00~16:30 | DX시대의 R&D 경쟁력 강화를 위한 HPC 서비스 구축 전략 – HPC 시스템 구축부터 통합 서비스 운영 방안까지 서진우 대표이사(클루닉스) |
Session 3 : 초고성능컴퓨팅 활용 | |
16:30~17:00 | 엑사스케일 계산 시대의 준비 이병찬 교수(경희대) |
17:00~17:30 | 국가 과학기술의 디지털 전환과 초고성능컴퓨팅 전문센터의 역할 권재민 부장(한국핵융합에너지연구원) |
17:30~18:00 | 초고성능컴퓨팅 활용 생태계 활성화 방안 염민선 소장(미디어젠) |
Workshop - 초고성능컴퓨팅 자원․기술/산업 현황 및 활용 활성화 방안
김지웅
- 책임연구원
- 한국정보통신기술협회(TTA)
HPC 이노베이션 허브 시스템 소개
HPC 이노베이션 허브에서 제공하는 클라우드 서비스 시스템의 구성 및 운영 방법에 대해서 소개하고, 2017년 부터 현재까지 단계적으로 추진된 시스템 고도화 방향 및 내용에 대해서 소개한다.
Educational History
Employment History
Workshop - 초고성능컴퓨팅 자원․기술/산업 현황 및 활용 활성화 방안
홍영찬
- 이사
- ㈜케이티엔에프
고성능 컴퓨팅(HPC) 플랫폼을 위한 하드웨어 설계 및 구현
고성능 컴퓨팅(HPC)는 대량의 데이터를 분석하기 위해 복잡한 계산을 병열로 고속 처리하는 컴퓨팅을 이야기하며, 고성능 컴퓨팅을 지원하기 위해서는 서버시스템이 필요합니다.
서버 시스템의 기술은 서버의 핵심을 이루는 메인보드 기술과 각각의 기능을 담당하는 CPU, 메모리, 스토리지, 네트워크 기술들이 있습니다. CPU, 메모리, 스토리지, 네트워크와 같은 요소 기술들도 세대를 거듭하면서 연산코어 확대, 저장장치에서의 고성능 인터페이스 채택, 네트워크에서의 고속 인터커넥션 기술 적용 등 고성능을 지원하는 다양한 기술 발전이 되어왔습니다. 이러한 요소기술들이 결합되어 안정적인 동작은 위해서는 서버 메인보드 기술이 필요하며, 요소기술의 발전과 함께 고성능 지원을 위해 메인보드에서도 설계기술, 레이아웃기술, 소재 등에 기술 발전이 이루어져 왔습니다.
최근에는 AI 적용한 초 거대 모델 컴퓨팅 요구에 의해 연산량의 증가, 다양한 연산 가속기 적용, 이에 따른 전력문제 등 다양한 이슈들을 해결하기 위한 컴퓨팅 구조가 필요하게 되었고 서버 시스템에서도 기존 하드웨어 컴퓨팅 구조와는 다른 모듈화, Pooled 구조, Immersion Cooling 등을 적용하는 연구들이 이루어지고 있어, 지속적인 기술 개발이 필요하게 되었습니다.
Educational History
Employment History
Workshop - 초고성능컴퓨팅 자원․기술/산업 현황 및 활용 활성화 방안
허무영 (Muyoung Heo)
- 센터장
- 기초과학연구원(IBS)
기초과학연구원의 연구지원용 HPC 및 HPDA 자원 구축전략 및 운영노하우
기초과학분야 연구 컴퓨팅 서비스 지원 전용 자원을 구축하기 위한 IBS 초고성능컴퓨팅 전문센터의 구축전략과 운영 노하우 등에 관하여 상세하게 소개한다. 2018년 HPC를 위한 슈퍼컴퓨터 알레프를 시작으로, 2020년 HPDA를 위한 대용량데이터 분석허브 올라프 도입, 2021년 대용량스토리지 증설, 2022년 CPU 노드 증설 및 2023년 GPU 노드 증설 등 IBS 초고성능컴퓨팅 자원의 단계별 구축전략을 설명한다.
HPC를 활용한 주요성과와 HPDA에 연동되어 진행되고 있는 IBS 대형실험장비 및 대용량 연구데이터에 관하여 발표한다.
2022년 IBS 초고성능컴퓨팅전문센터는 우주분야 전문센터로 선정되어 해당분야 특화 연구계산지원 서비스를 발굴하고 지원한다. 마지막으로, 우주분야 초고성능컴퓨팅 활용 활성화를 위한 IBS만의 특화 서비스를 소개하고 토의한다.
Educational History
Employment History
Workshop - 초고성능컴퓨팅 자원․기술/산업 현황 및 활용 활성화 방안
서진우 (Seo Jin Woo)
- 대표이사 / CEO
- 클루닉스(Clunix)
DX시대의 R&D 경쟁력 강화를 위한 HPC 서비스 구축 전략 – HPC 시스템 구축부터 통합 서비스 운영 방안까지
디지털 전환 시대의 혁신과 기술은 빠르게 진화하고 있으며 이러한 패러다임 변화 속에서 R&D 경쟁력을 강화하기 위해서는 더욱 빠르고 최적화된 기술 확보가 중요합니다.
특히 HPC(High-Performance Computing)는 과학적 돌파구를 추진하고 데이터 기반 의사 결정을 가능하게 하며 다양한 영역에서 혁신을 촉진합니다. HPC를 통해 복잡한 문제를 해결할 수 있을 뿐만 아니라 앞에 놓여 있는 전례 없는 기회를 포착할 수도 있습니다.
이번 발표에서는 R&D 경쟁력을 높이는 데 기폭제 역할을 할 HPC 서비스 구축 전략에 대해 소개하고 HPC 시스템 구축부터 통합 서비스 운영 방안까지 모두 포괄하는 로드맵을 제시하고자 합니다.
Employment History
Workshop - 초고성능컴퓨팅 자원․기술/산업 현황 및 활용 활성화 방안
이병찬
- 교수
- 경희대학교
엑사스케일 계산 시대의 준비
엑사스케일(exascale) 계산이란 초당 1018번의 연산을 하는 큰 규모의 문제를 말하며, 앞으로 수퍼컴퓨터의 발달로 엑사스케일 계산이 가능한 시대가 머지않아 올 것으로 기대된다. 다만 범용성을 가지고 있는 하드웨어의 발달에 비해 소프트웨어는 해결하고자 하는 문제의 지배방정식/구성방정식에 따라 구현 방법이 달라 태생적인 특수성을 가지고 있어, 개별적이며 정보 교환이 제한적이어서 하드웨어에 비해 발전속도가 더딘 상황이다.
본 연구에서는 대규모 분자동역학 소프트웨어 개발 과정에서 얻은 경험을 공유하며, 엑사스케일 계산 소프트웨어 개발에 필요한 요소들을 되짚어 본다. 이를 통해 많은 개발자들이 개발 단계부터 프로젝트 계획(project planning)을 효과적으로 하고, 지배방정식을 넘어서는 정보 교환의 토대를 마련하고자 한다.
Educational History
Employment History
Workshop - 초고성능컴퓨팅 자원․기술/산업 현황 및 활용 활성화 방안
권재민 (KWON, Jae-Min)
- 부장
- 한국핵융합에너지연구원(KFE) 통합시뮬레이션연구부
국가 과학기술의 디지털 대전환과 초고성능컴퓨팅 전문센터의 역할
4차 산업 혁명을 맞이한 지금 과학기술 분야의 디지털 대전환은 국가적 화두라고 할 수 있다. 그리고 이런 디지털 대전환의 중심에 데이터와 초고성능컴퓨팅이라는 두 키워드가 자리하고 있다.
본 발표에서는 우리나라 과학기술의 디지털 대전환을 가속하는 방안으로 초고성능컴퓨팅 생태계를 조성하는 전략을 논의하고자 한다. 최근 정부는 국가 주요 전략 분야에 대한 초고성능컴퓨팅 자원 도입과 활용을 촉진하기 위해 초고성능컴퓨팅 전문센터를 지정한 바 있다. 이들 전문센터를 연결하고 초고성능컴퓨팅 국가센터와 연계하는 체계 구축과 환경 조성을 위한 노력이 지속되고 있다.
본 발표에서는 관련 논의를 통해 도출된 전문센터 초고성능컴퓨터 공동활용체계의 청사진과 이를 통해 가능할 것으로 기대되는 대표적 미래 연구 방향을 소개하고자 한다. 특히 산재해 있는 국가 연구기관의 주요 데이터 자산과 초고성능컴퓨팅 자원의 융합을 통해 기대되는 데이터 기반 컴퓨팅의 청사진도 살펴보고자 한다.
Educational History
Employment History
Workshop - 초고성능컴퓨팅 자원․기술/산업 현황 및 활용 활성화 방안
염민선 (Yeom, Min Sun)
- 연구소장
- 미디어젠(Mediazen)
초고성능컴퓨팅 활용 생태계 활성화 방안
글로벌 기술 패권 경쟁이 가속화되고 기술 블록화의 움직임이 본격화됨에 따라 미국, 유럽, 중국, 호주 등 해외 주요국은 기술 주권 확보에 집중하고 있다. 아울러 초거대 인공지능(AI)과 빅데이터·자율주행 등 갈수록 데이터 처리 속도·용량에 대한 수요 급증하고, 디지털 전환(DX)이 가속화되면서 많은 양의 데이터 처리와 계산을 위한 초고성능컴퓨터의 역할이 강조되고 있다.
미국, 중국, 일본 등 해외 주요국은 국가 차원에서 다수의 초고성능컴퓨터를 구축하여 연구개발 및 산업기술 혁신에 활용 중이다. 이를 통해 과학·공학분야에서 우수한 연구성과가 창출되고 있으며, 초고성능컴퓨터를 활용하여 산업기술을 혁신함으로써 경제적 효과를 유발하고, 의생명, 기상·기후, 환경, 국방·안보, 재난대응 등 국민 생활 밀접분야 현안 해결에 초고성능컴퓨팅을 적극 활용 중이다.
그럼에도 불구하고 초고성능컴퓨팅 활용 생태계 활성화를 위한 다양한 방안에 대한 의견을 수렴하여 생태계 활성화 전략을 지속적으로 고도화할 필요가 있다.
Educational History
Employment History
Workshop 4 - 디지털트윈을 위한 물리기반 시뮬레이션 및 인공지능 융합 기술 연구 (가야금 B) | |
|
|
Time | Program |
13:30~14:10 | 두산에너빌리티 디지털트윈 개발 현황 소개 및 향후계획 박누가 수석(두산에너빌리티) |
14:10~14:50 | NVIDIA 모듈러스 소개 및 적용사례 류현곤 부장(NVIDIA) |
14:50~15:30 | 인공지능 기반 모빌리티 설계 : Deep Generative Design 유소영 CTO(나니아랩스) |
15:30~16:00 | Break |
16:00~16:40 | 고성능 계산과학 분야에서 차수축소모델 생성을 위한 전처리 프로그램 개발 이동화 이사(디엔디이) |
16:40~17:20 | 인공신경망 기반 유동예측을 통한 에너지 저감 및 발전기술 개발 이상승 교수(인하대학교) |
Workshop - 디지털트윈을 위한 물리기반 시뮬레이션 및 인공지능 융합 기술 연구
박누가
- 수석
- 두산에너빌리티
두산에너빌리티 디지털 트윈 개발현황 및 향후계획
디지털 트윈이란 용어는 더 이상 낯설지가 않다. 항만, 교통, 건물, 조선 등 다양한 산업분야에서 용어가 쓰이고 있으며 이제는 PoC(Proof of Concept)을 지나 현재 PoV(Proof of Value)로 진화 중이다. 특히 제품의 특성을 파악할 수 있는 센서 개발과 Computing Power의 발전은 디지털 트윈을 확대 시키는 중요한 원동력이 되었다. 에너지 분야에서의 디지털 트윈은 국가 정책 로드맵에 반영 되어 있는 4차산업혁명의 핵심기술이며 특히 원자력 분야에서는 기술적용을 위해 국가 주도의 연구개발 인프라 구축 진행 중이다. 발전 기자재 OEM(Original Engineering Manufacturer) 사업을 영위하고 있는 두산에너빌리티는 발전소의 성능을 유지 시키되 불시 정지를 사전에 대응하고 최적 정비주기 선정을 통한 효율적인 제품관리를 목적으로 3D 해석기반 디지털 트윈 모델을 개발 중이다. 디지털 트윈 구현을 위한 프로토타입(Prototype) 제품은 가스터빈 압축기 블레이드와 원자력 발전소에서 1차 계통의 유일한 회전체인 냉각제펌프(RCP, Reactor Coolant Pump)의 임펠러(Impeller)이다.
본 연구에서는 유동해석과 구조해석이 연계된 3D 디지털 트윈 모델 구축 프로세스와 검증 방법을 살펴보고 이를 기반으로 디지털 트윈을 실제 발전분야에서 적용할 수 있는 방향성을 공유하고자 하며 특히 디지털 트윈을 위한 Computing Power의 중요성을 강조하고자 한다.
Educational History
Employment History
Workshop - 디지털트윈을 위한 물리기반 시뮬레이션 및 인공지능 융합 기술 연구
류현곤
- 부장
- NVIDIA AI Technology Center (NVAITC) Korea
NVIDIA 모듈러스 소개 및 적용사례
이번 세션에서는 디지털 트윈 구축시 사용될 수 있는 산업용 인공지능 및 물리 기반 시뮬레이션을 중심으로 물리 정보 신경망(PINN)의 NVIDIA Modulus 솔루션의 개요와 적용 사례를 발표할 예정입니다. 또한 푸리에 신경망 연산자(FNO), AFNO 및 하모닉 기반 Spectral FNO(SFNO) 레이어를 통한 전산 유체 역학(CFD) 시뮬레이션에서 적용에 대해 논의할 것입니다.
이 프레젠테이션은 이러한 고급 시뮬레이션 방법론의 기능과 잠재력에 대한 통찰력과 다양한 산업 영역에서 효과적으로 활용할 수 있는 방법을 제공하는 것을 목표로 합니다.
In this talk, we will be presenting an overview of NVIDIA Modulus, a Physics Informed Neural Network (PINN) solution, as well as its application cases, focusing on the topics of digital twins, industrial artificial intelligence, and physics-based simulation. We will also introduce related technologies such as the Fourier Neural Operator (FNO), Adaptive Fourier Neural Operator(AFNO), and Spectral FNO (SFNO) and discuss their applications in Computational Fluid Dynamics (CFD) simulations such as Darcy and Shallow Water Equation. The presentation aims to provide insights into the capabilities and potential of these advanced simulation methodologies, as well as how they can be effectively utilized in a variety of industry domains.
Employment History
Workshop - 디지털트윈을 위한 물리기반 시뮬레이션 및 인공지능 융합 기술 연구
유소영
- CTO
- ㈜나니아랩스
인공지능 기반 모빌리티 설계 : Deep Generative Design
Deep Generative Design은 인공지능과 제너레이티브 디자인을 결합한 혁신적인 설계 방법입니다. 이 방법은 물리 기반의 역학과 데이터 기반의 딥러닝 기술을 활용하여 모빌리티 설계를 개선합니다. 디지털 트랜스포메이션을 통해 가상 제품을 개발하는 플랫폼을 구축하여, 시간과 비용을 절감하고 품질과 경제성을 높일 수 있습니다. Deep Generative Design은 설계 생성, 설계 평가, 설계 최적화, 설계 추천의 4단계로 이루어져 있습니다.
설계 생성 단계에서는 인공지능을 사용하여 심미적이며 기능적으로 타당한 설계안을 대량으로 생성합니다. 그 후, 설계 평가 단계에서는 다양한 공학 성능과 제조성, 독창성 등을 실시간으로 예측하고 설명합니다. 설계 최적화 단계에서는 목표 성능과 제약 조건을 만족하는 최적 설계안을 실시간으로 찾아냅니다. 마지막으로, 설계 추천 단계에서는 고객 선호도를 예측하고 시장에서 성공할 수 있는 설계를 추천합니다. 이러한 Deep Generative Design은 인공지능과 공학설계 기술을 결합하여 자동화된 설계 과정을 통해 비용과 시간을 줄이고 혁신적인 제품 설계를 가능하게 합니다.
Educational History
Employment History
Workshop - 디지털트윈을 위한 물리기반 시뮬레이션 및 인공지능 융합 기술 연구
이동화
- 이사
- ㈜디엔디이
고성능 계산과학 분야에서 차수축소모델(ROM) 생성을 위한 전처리 프로그램(TwinBuilderRom.Client) 개발
현재 전 세계적으로 에너지혁신 연구의 중요성이 부각되어 있으며, 에너지 시스템의 안전성과 성능을 효과적으로 향상시키기 위해 디지털 트윈 기술이 필요합니다. 디지털 트윈은 대규모 실험을 최소화할 수 있으며, 이를 위해 고성능 계산과학 분야 중 하나인 전산유체역학 기술의 차수축소모델(Reduced Order Model: ROM)이 필요합니다.
차수축소모델(ROM)은 물리 시스템을 단순화한 모델로, 일반적으로 실험계획법에 따라 입력 파라미터를 정의하고, 유동 및 구조 해석 결과를 매핑하여 데이터를 준비합니다. 이러한 ROM은 스칼라 ROM과 필드 ROM으로 나뉘는데, 스칼라 ROM은 온도, 압력 또는 특정 메트릭과 같은 단일 수량을 사용하여 시스템 동작을 적절하게 나타낼 수 있을 때 유용하며, 필드 ROM은 시스템 동작이 공간적으로 상당한 변화를 보일 때 특히 유용하며 상세한 필드 분포를 캡처하는 데 필수적입니다.
TwinBuilderRom.Client 프로그램은 기존에 완료된 해석 결과에서 아스키(ASCII) 형식의 데이터를 추출하여 ANSYS Twin Builder에서 필드 ROM을 생성하기 위한 전처리 프로그램으로 개발되었습니다. 이를 통해 유한요소 해석 결과를 효율적으로 활용하여 ROM을 생성할 수 있습니다.
Educational History
Employment History
Workshop - 디지털트윈을 위한 물리기반 시뮬레이션 및 인공지능 융합 기술 연구
이상승
- 조교수
- 인하대학교 기계공학과
인공신경망 기반 유동 예측을 통한 에너지 저감 및 발전 기술 개발
다양한 재생에너지원을 확보하고 에너지 효율성을 개선하기 위한 유체공학 기술에 대한 수요가 증가하고 있다. 이러한 유체공학 기술을 개발하기 위해서는 복잡한 유체역학적 현상의 정확하고 신속한 예측이 필수적이다. 정확하고 신속한 유체 예측에 물리기반 인공신경망 기술이 활용될 수 있다. 본 발표에서는 물리기반 인공신경망을 이용한 유동 예측 연구와 이의 에너지 저감 및 발전 기술로의 적용에 대해 논의한다.
구체적으로는 인공신경망을 활용한
(1) 실린더를 지나는 후류 유동 예측,
(2) 대규모 기상데이터 학습 기반 태풍 유동 예측,
(3) 풍력터빈 제어를 위한 풍속/풍향 예측,
(4) 거친표면 유발 유체항력 예측을 소개한다.
Educational History
Employment History
Workshop 5 - AI & Big Data (거문고 B) | |
|
|
Time | Program |
13:30~14:00 | AI 기반 설비 예지진단을 위한 on-premise, Cloud 적용 고우주 대표(쿱와) |
14:00~14:30 | 식물공장(Plant Factory)에 AI 적용 이영희 대표(PIDATA) |
14:30~15:00 | Industrial Metavrse를 위한 Dataverse – 데이터 기반의 의사소통 강 철 전무(지멘스) |
15:00~15:30 | AI를 적용한 수상 모빌리티 하성욱 연구소장(KMCP) |
15:30~16:00 | Break |
16:00~16:30 | openVINO와 stable diffusion 모델을 이용한 text to image generation 김태진 대리(인텔) |
16:30~17:00 | 의료데이터 분석의 트랜드와 이를 위한 준비: 병원 내 데이터에서 Real world Data로 확장되는 의료데이터와 기술 현중근 이사(Spass) |
17:00~17:30 | 인지기능 장애 진단을 위한 음성 대화 데이터 분석 및 치매 선별 모델링 전형배 소장(tutoruslabs) |
17:30~18:00 | PowerBI를 이용한 건강검진 데이터 탐색적 분석 및 시각화 강윤정 부장(SKT) |
Workshop - AI & Big Data
고우주
- 대표
- ㈜쿱와
AI 기반 설비 예지진단을 위한 On-premise, Cloud 적용
제조분야에서 예지보전(Predictive Maintenance)는 설비와 장비를 사전에 진단하여 기계 수명을 연장시키는 중요한 분야이다.
기계 설비에서 수집된 진동 센서 신호 데이터를 주파수 변환 및 파라미터를 추출하여 ML 모델링으로 고장 진단하는 방법을 설명한다. 설비의 환경에 따라 On-premise에서 이를 구현하고, Cloud에서 운영할 수 있는 단계별 솔루션 구축을 설명한다.
Educational History
Employment History
Workshop - AI & Big Data
이영희
- 대표
- ㈜파이데이터
식물공장(Plant Factory)에 AI 적용
식물공장의 환경데이터 및 수확 데이터를 이용한 수확률 예측 모델 및 최적환경 도출을 위한 머신러닝 적용 방식에 대해서 소개하고, 서비스 시스템을 구축하기 위하여 클라우드 서비스를 이용한 사례를 소개합니다.
추가로 AI 자율재배 구현에 적합한 이미지 기반 학습데이터 셋을 구축하기 위한 내용을 소개합니다.
Educational History
Employment History
Workshop - AI & Big Data
강 철
- 전무
- 지멘스 인더스트리 소프트웨어
Industrial Metavrse를 위한 Dataverse – 데이터 기반의 의사소통
Siemens Industrial Metaverse는 물리적 세계와 디지털 세계를 결합하여 산업 애플리케이션을 위한 보다 몰입도 높은 대화형 경험을 제공하는 디지털 플랫폼입니다. 실시간 데이터 및 3D 시뮬레이션 및 AI 기술을 기반으로 구축되어 사용자가 새로운 방식으로 협업하고 배우고 혁신할 수 있습니다.
데이터 연계 기반 설계, 제조 및 운영하는 방식을 혁신할 수 있는 잠재력을 가지고 있습니다. - 제품 설계 개선, 제조 공정 최적화, 원격 지원, 근로자 훈련.
이를 통해 향상된 협업, 효율성 향상, 안전성 향상 및 비용 절감을 실현 할 수 있습니다.
Employment History
Workshop - AI & Big Data
하성욱
- 연구소장
- 케이엠씨피
AI를 적용한 수상 모빌리티
수상 모빌리티 적용을 위해 필요한 선박 내외부 통신, 자율 운항을 위한 데이터 수집, 정제, 라벨링을 자동화, 객체 인식과 영역화를 위한 최신 모델 적용, 디바이스 탑재를 위한 최적화 방법을 소개한다.
또한, 기존 AIHUB 데이터 셋 활용과 커스텀 데이터셋 수집과 전이학습 프로세스를 소개한다.
Educational History
Employment History
Workshop - AI & Big Data
강윤정
- 프로젝트 리더
- SK그룹
PowerBI를 이용한 건강검진 데이터 탐색적 분석 및 시각화
건강 검진 데이터를 BI 툴인 Power BI를 이용한 EDA 통해 시계열적 변화 에 따른 특정 질환에 대한 값을 찾고, 인사이트를 도출한다
Educational History
Employment History
Workshop - AI & Big Data
현중균
- 이사
- 주식회사 슈파스
의료데이터 분석의 트랜드와 이를 위한 준비:병원 내 데이터에서 Real world Data로 확장되는 의료데이터와 기술
4P (Preventive, Predictive, Personalized, Participatory)를 지향하는 정밀의료를 위해 기존 병원내 데이터만으로는 그 한계에 다다르게 되었습니다.
이런 한계를 넘어서기 위한 Real World Data의 소개와 이와 연관된 데이터의 형태와 프로토콜을 소개합니다.
Educational History
Employment History
Workshop - AI & Big Data
전형배
- AI Lab 연구소장
- ㈜튜터러스랩스
인지기능 장애 진단을 위한 음성 대화 데이터 분석 및 치매 선별 모델링
인공지능 기술 발전에 따라 음성 또는 언어 바이오마커에 기반하여 우울증이나 치매 선별을 수행하는 의료적 응용 서비스가 가시화되고 있다.
본 발표에서는 실제 인지기능장애 환자를 대상으로 하여 구축한 인공지능 학습데이터에 대해 음성 및 언어적 특징을 추출하고 기계학습을 거쳐 치매 선별을 수행한 사례를 소개한다.
Educational History
Employment History
Workshop - AI & Big Data
김태진
- 대리
- 인텔
openVINO와 stable diffusion 모델을 이용한 text to image generation
openVINO는 다양한 AI framework로 생성된 AI model를 추론할 수 있는 인텔에서 제공하는 통합 플랫폼이다.
openVINO를 활용하는 다양한 Python 코드와 사례에 대해서 설명하고 stable diffusion을 이용한 text to image generation에 대해서 설명한다.
Educational History
Employment History
Workshop 6 - 양자통신 구축을 위한 주요 연구추진 공유 세미나 (가야금 A) | |
|
|
Time | Program |
Session 1 : 양자암호통신을 위한 추진 동향 소개 | 이원혁 단장(KISTI) | |
13:30~14:05 | KT 무선 QKD 추진 현황 이경운 박사(KT) |
14:05~14:40 | DPS QKD 구현 연구 추진 결과 소개 김범일(고려대) |
14:40~15:15 | Continuous Variable을 활용한 QKD 실험 김현진(KAIST) |
15:15~15:45 | Break |
Session 2 : 양자통신 연구 동향 소개 | 손일권 박사(KISTI) | |
15:45~16:20 | 양자채널용량의 특이성과 양자네트워크 정갑균 박사(서울대) |
16:20~16:55 | 양자통신작업과 양자상태의 수학적 구조 이용해 교수(강원대) |
16:55~17:30 | 코히어런트 광통신 시스템의 소개 배성현 교수(강원대) |
Workshop - 양자통신 구축을 위한 주요 연구추진 공유 세미나
이경운
- 책임연구원
- KT
KT 무선 QKD 추진 현황
양자암호통신은 양자역학적 특성을 활용한 암호기술로 복제가 불가능하고 키 탈취도 어려운 차세대 암호기술이다. 양자암호통신은 양자채널의 상태에 따라 유선 양자암호통신과 무선 양자암호통신으로 구분되며 광섬유 기반 유선 양자암호통신 기술은 현재 상용단계로 양자정보기술 중 가장 성숙도가 높은 기술로 발전하였다. 그러나, 광섬유 기반 양자암호통신의 최대 거리는 단일링크 구성시 수백 킬로미터이며 광케이블이 필수적으로 요구되어 거리 및 공간적 제약이 따른다. 무선 양자암호통신은 자유공간(Free -space)을 양자채널로 사용하여 광케이블 사용이 어려운 구간 및 위성등을 통한 장거리 양자암호통신을 가능케 하는 기술이다.
본 발표에서는 무선 양자암호통신의 개요 및 KT 무선 양자암호통신 추진 현황에 대해 소개하고자 한다.
Educational History
Employment History
Workshop - 양자통신 구축을 위한 주요 연구추진 공유 세미나
김범일
- 박사과정 대학원생
- 고려대학교
DPS QKD 구현 연구 추진 결과 소개
양자컴퓨터의 발전에 따라 수학적 복잡성에 기반하였던 대표적인 비밀키 분배 방식인 RSA기법의 안정성이 위협을 받게 되었음.
양자역학적 특성을 이용하여 수학적 복잡성에 기반한 보안이 아닌 물리적 특성을 이용하는 QKD기법은 이론적으로 무조건적인 보안성을 보장함.
본 발표에서는 양자암호통신 기법중 하나인 DPS QKD 프로토콜 전개방식과 특정 도청기법에 대한 방어방식 소개함.
또한, DPS QKD 간섭계 구현을 위해 수행했던 실험과 실험을 통해 파악했던 구현 이슈들을 소개함
Educational History
Workshop - 양자통신 구축을 위한 주요 연구추진 공유 세미나
김현진
- Ph.D.student, 석박통합과정
- KAIST 물리학과
Continuous Variable을 활용한 QKD 실험
양자 기술은 미래의 전략 기술로 인식되어 전 세계적인 관심을 받으며 활발한 연구 개발이 이루어지고 있다. 그 중 양자 통신은 기존의 고전적인 통신 기술이 가진 문제점을 양자 현상을 도입하여 해결하는 기술이다. 고전적인 통신 기술은 도청의 위험으로부터 자유로울 수 없다는 단점이 존재하는데, 양자 키 분배라 불리는 양자 통신 기술은 양자역학적 법칙에 의해 도청으로부터 근본적으로 안전한 통신 환경을 제공한다. 양자 키 분배 기술에서 연속 변수를 이용한 방식은 생성되는 안전 키 비율이 높다는 점과 측정 장치의 용이함, 그리고 고전적 통신장비를 활용할 수 있다는 면에 있어서 큰 장점이 있다.
연속 변수 양자 키 분배 기술은 크게 시간 모드 제어, 양자 광원 변조, 양자광원 전송 및 측정, 정보 후처리의 네 단계로 나눌 수 있다. 첫째로 Pulse generation 단계는 시간 모드 제어에 해당한다. 레이저 광을 펄스 형태로 만들어서 다음으로, 가우시안 무작위 변조과정을 통해 양자광원에 정보를 실었다. 가우시간 변조 구현은 진폭 광 변조기를 이용해 레일리 분포를 따르는 무작위 변조를, 위상 광 변조기에 선형 분포를 따르는 무작위 변조를 가함으로써 진행하였다.
변조된 양자광을 측정을 위해 전송하는데, 이 때 발생하는 위상 잡음은 간섭계를 이용한 위상 고정 구현을 통해 억제할 수 있다. 위상 잡음이 억제된 양자광을 호모다인 측정(homodyne measurement)하면 측정된 quadrature 값으로부터 원본키를 얻을 수 있다.
연속변수를 이용한 양자 키 분배 기술 구현에서 원본 키 획득에 성공한 것은 국내 최초이다. 본 연구를 진행하는 동안 양자 키 분배 기술 구현에 대해 다양한 지식을 습득하였으며, 필요한 장비 및 기술에 관한 이해도를 쌓을 수 있었다.
Educational History
Workshop - 양자통신 구축을 위한 주요 연구추진 공유 세미나
정갑균 (Jeong, Kabgyun)
- 책임연구원
- 서울대학교 수학연구소
양자채널용량의 특이성과 양자네트워크
현재 우리는 인터넷, 컴퓨터, 인공지능, 로봇 등 디지털 산업을 근간으로 한 4차 산업혁명 시대를 넘어 양자정보의 시대를 준비하고 있다.
일반적으로 양자정보과학기술은 양자컴퓨팅, 양자통신 및 양자센싱으로 분류되어 연구가 진행되고 있으며 잠재적 파급 능력에 힘입어 전 세계적으로 양자정보 핵심원천기술 확보 및 고도화를 위한 노력이 한창이다. 약 70여년에 걸친 디지털 기술이 ‘인터넷’으로 수렴하였듯이, 차세대 양자정보기술 또한 초연결성뿐만 아니라 초고속/초보안/초정밀을 추구하는 ‘양자인터넷’의 실현을 위해 연구가 진행될 것으로 예측된다.
본 발표에서는, 양자얽힘에서 발현되는 양자채널용량의 특이성 및 양자네트워크가 갖추어야 할 이론적 전제 조건을 살펴 보고자 한다.
Educational History
Employment History
Workshop - 양자통신 구축을 위한 주요 연구추진 공유 세미나
이용해 (Yonghae Lee)
- 조교수
- 강원대학교
양자통신작업과 양자상태의 수학적 구조
이 발표에서 Data Compression, Slepian-Wolf Coding, 그리고 Quantum State Merging와 같은 몇 가지 (양자) 통신 작업들이 소개된다. 또한 이 작업들을 수행하기 위해 소모되는 최적 자원 비용을 (양자) 부정보의 관점에서 설명한다. 나아가, 양자상태 교환 작업을 소개하고, 이 작업의 최적 자원 비용을 정확하게 계산하기 위한 접근법을 제시한다. 이 접근법을 통해, 주어진 초기 양자 상태를 점근적으로 분해하는 예를 살펴본다.
(This talk introduces some (quantum) communication tasks, such as Data Compression, Slepian-Wolf Coding, Quantum State Merging, and other tasks. We explain the optimal resource costs required for carrying out these tasks in terms of (quantum) side information. We also introduce the quantum state exchange task, in which Alice and Bob exchange their respective quantum information. The optimal resource cost of this task is unknown. To figure out the closed form of the optimal cost, we propose a structural approach that asymptotically decomposes the initial state of the quantum state exchange task into EPR pairs or GHZ stats.)
Educational History
Employment History
Workshop - 양자통신 구축을 위한 주요 연구추진 공유 세미나
배성현
- 교수
- 강원대학교
코히어런트 광통신 시스템의 소개
코히어런트 통신 시스템은 동위상(inphase)과 직교 위상(quadrature phase)으로 구성되는 2차원을 활용하여, 1차원을 활용하는 세기 변조 기반 통신 시스템에 비해 우월한 통신 성능을 갖는다. 그러나 광송신기의 위상 잡음과 광섬유에서의 랜덤한 편광 회전 특성으로 인해, 광통신 시스템에서 코히어런트 시스템을 구축하는 것은 어려웠다. 광 코히어런트 시스템은 캐리어 위상 보상 기법과 편광 다이버시티 수신기가 2005년과 2007년에 제안됨에 따라 상용적으로 구현되었다.
본 발표에서는 광 코히어런트 시스템의 구성과 동작 원리를 소개하고자 한다. 본 발표에서 소개하는 광 코히어런트 시스템은 코히어런트 상태의 검출을 요구하는 연속 변수 양자 암호 통신 시스템에서 활용된다.
Educational History
Employment History
Workshop 7 - H-N-A(HPC, 5G, AI) 기반의 산업 융합 기술 (비파) | |
|
|
Time | Program |
Session 1 : HPC 기반의 산업 융합 기술 소개 | 이강해 단장(한국정보통신기술협회) | |
13:30~14:00 | 기업의 혁신을 주도하는 HPC 시장 동향 김민철 수석(IDC Korea) |
14:00~14:30 | 고성능컴퓨팅과 AI 융합 제품 성능 검증 사정환 박사(한국정보통신기술협회) |
14:30~15:00 | 고성능 컴퓨팅 서버의 전력 절감을 위한 지능형 BMC 기술 김영환 단장(한국전자기술연구원) |
15:00~15:30 | Sokovan: GPU 및 가속기 기반 대규모 슈퍼컴퓨팅을 위한 다중 계층 스케줄러와 컨테이너 오케스트레이션 프레임워크 김준기 CTO(래블업) |
15:30~16:00 | Break |
Session 2 : AI와 5G 산업 융합 기술 소개 | 손진혁 팀장(한국네트워크산업협회) | |
16:00~16:30 | ChatGPT 시대, 그리고 인공지능 반도체 박성현 대표(리벨리온) |
16:30~17:00 | 5G 네트워크 연계 고성능 Edge Clouting 서비스 고광선 매니저(SKT) |
Workshop - H-N-A(HPC, 5G, AI) 기반의 산업 융합 기술
김민철
- 수석연구원
- 한국 IDC
기업의 혁신을 주도하는 HPC 시장 동향
그동안 슈퍼컴퓨터는 정부 기관 및 대기업에서 R&D 혹은 실험 목적으로 사용되어져 왔다면, 최근에서는 중소기업 뿐만 아니라 스타트업에서도 클라우드 환경에서 임대 형태로 사용할 수 있을 정도로 활용 범위가 확대되고 있다.
한국 IDC 에서는 HPC 시장이 어떻게 성장해 나가고 있으며, 향후 어떻게 발전해 나갈 수 있을 지 IDC 데이터를 기반으로 전망해보도록 하겠습니다.
Educational History
Employment History
Workshop - H-N-A(HPC, 5G, AI) 기반의 산업 융합 기술
사정환
- 책임연구원
- 한국정보통신기술협회(TTA)
고성능컴퓨팅과 AI 융합 제품 성능 검증
GPU의 꾸준한 발전으로 인해 AI는 빙하기를 깨고 혁신적인 발전을 이루었으며, 현재 다양한 분야에 핵심적인 기술로 사용되고 있다. 그러나 GPU는 애초에 그래픽 처리 용도로 탄생했기 때문에 고전력․고비용의 한계에 부딪치고 있다.
AI반도체라고도 불리는 NPU(Neural Processing Unit, 신경망처리장치)는 학습 및 추론 등 AI 워크로드 핵심 기능을 구현하기 위한 데이터 연산 처리를 저전력으로 고속처리할 수 있도록 설계되어 기존 GPU의 문제점을 해결할 수 있는 방법으로 여겨지고 있다. 국내에서도 NPU에 대한 개발이 지속적으로 이루어져 뛰어난 성능을 보이고 있는 NPU장치들이 존재하고 있다.
본 발표를 위하여 국내에서 개발된 NPU의 성능을 확인하고자 MLPerf 벤치마크를 사용하여 AI추론 성능 결과를 비교 하였다. 국내에서 개발된 고성능컴퓨팅 서버에 국내에서 개발된 NPU장비를 장착하여 성능을 확인하였다. 이를 통해 국내개발컴퓨팅서버의 NPU장비에 대한 이식성과 안정성을 확인하고, 국내개발 NPU장비의 성능의 우수성을 확인하고자 한다.
Educational History
Employment History
Workshop - H-N-A(HPC, 5G, AI) 기반의 산업 융합 기술
김영환
- 단장 / 수석연구원
- 한국전자기술연구원
고성능 컴퓨팅 서버의 전력 절감을 위한 지능형 BMC 기술
고성능 서버 메인보드의 원격 관리를 위한 레거시 BMC 펌웨어 SW는 글로벌 BIOS, BMC 전문기업에 의해 독점되어 왔으며, 폐쇄적인 SW 개발 환경이었으나, 2014년 페이스북에서 프로토타입 오픈소스 BMC 펌웨어를 공개하고, 저렴한 BMC SoC 칩셋이 제공되면서 보다 개방적인 SW 개발 환경으로 변화하고 있음.
또한, 최근 인공지능, 빅데이터, IoT 등 신기술이 활발하게 사용되면서 서비스를 제공하는 데이터센터의 IT 장비의 소비전력도 급속도로 상승하고 있으나 실제 데이터센터 내 서버는 낮은 활용률과 유휴 상태로 운영되고 있는 상황임.
본 발표는 대부분의 고성능 서버에 적용되고 BMC SoC에 대해 알아보고, 기존 호스트 레벨에서 전력을 관리하던 방식에서 하드웨어 레벨에서 직접 관리하기 위한 지능형 BMC SW에 관한 연구 동향에 대해 이해를 돕고자 함.
Educational History
Employment History
Workshop - H-N-A(HPC, 5G, AI) 기반의 산업 융합 기술
김준기
- CTO
- 래블업 주식회사
Sokovan: GPU 및 가속기 기반 대규모 슈퍼컴퓨팅을 위한 다중 계층 스케줄러와 컨테이너 오케스트레이션 프레임워크
Sokovan은 컨테이너 환경에서 자원 집약적인 배치 워크로드를 실행하는 과정에서 발생하는 다양한 기술적 어려움들을 해결하는 컨테이너 오케스트레이션 프레임워크입니다. 최신 하드웨어 가속 기술을 바탕으로 다중 사용자 환경에서 배치 작업 스케줄링을 수행합니다.
특히, 클러스터 수준의 노드 할당 스케줄러와 노드 수준의 장치 및 자원 할당 스케줄러로 나누어 동작하여 하드웨어에서 끌어낼 수 있는 최대한의 성능을 달성합니다. 예를 들면 NUMA를 고려한 CPU 코어 매핑 및 GPU 장치 매핑을 통해 Slurm과 같은 기존 배치 스케줄러보다 높은 성능을 낼 수 있습니다. 이미 GPU를 활용하는 다양한 산업 분야의 고객들이 AI 모델 훈련과 서비스를 목적으로 사용하고 있습니다.
이 Sokovan에 관한 발표를 통해 최신 하드웨어 기술을 보다 잘 활용하여 효율성과 성능을 높일 수 있는 컨테이너 기반 고성능 컴퓨팅 및 ResearchOps, MLOps 플랫폼 기술에 대해 상세히 소개하고자 합니다.
Educational History
Employment History
Workshop - H-N-A(HPC, 5G, AI) 기반의 산업 융합 기술
박성현
- 대표이사
- 리벨리온 주식회사
ChatGPT 시대, 그리고 인공지능 반도체
본 발표에서는 먼저 인공지능 알고리즘과 관련 서비스가 어떻게 변화하여 왔는지를 살펴보려고 합니다. 이어서 인공지능 알고리즘을 계산하는 하드웨어가 어떻게 변화하여 왔는지를 살펴보고, 인공지능 반도체의 개발 과정을 설명드리고자 합니다.
발표의 후반부는 ChatGPT 시대에 대응하는 저희 리벨리온의 기술에 대한 소개를 드리도록 하겠습니다.
Educational History
Employment History
Workshop - H-N-A(HPC, 5G, AI) 기반의 산업 융합 기술
고광선
- Senior Manager
- SKTelecom
5G 네트워크 연계 고성능 Edge Clouting 서비스
- 저지연 (Low Latency), 고성능 (High Performance)을 제공하기 위해, 5G 네트워크를 연계한 Edge Computing 서비스
1) 모바일 고객을 위한 5G + Edge Computing 인프라 서비스
2) 다양한 B2B 요구사항 지원을 위한 Private5G 기반 Computing 인프라
- AI/ML 기반 서비스에 최적화된 인프라를 제공하기 위한 Cloud Computing
1) 효율적인 AI/ML 지원을 위한 Cloud Computing
2) 동일한 성능을 제공하면서도 전력 효율성을 높인 Computing 인프라
Employment History
Workshop 1 - 대형연구시설과 HPC 융합 (가야금 B) | |
|
|
Time | Program |
13:30~14:10 | Advanced Imaging for Multifaceted Science: The Cryo-Electron Microscopy System at Pusan National University 송치홍 교수(부산대) |
14:10~14:50 | PAL-XFEL 이용자 실험을 위한 Data Acquisition 시스템 박기수 선임기술원(PAL) |
14:50~15:30 | Big data and Machine Learning in LIGO and KAGRA 김영민 박사(한국천문연구원) |
15:30~16:00 | Break |
16:00~16:40 | ALICE Computing Perspectives for HL-LHC 노서영 교수(충북대) |
16:40~17:20 | Computing Technologies for CMS for the HL-LHC Dr. Ian James Watson(서울시립대) |
Workshop - 대형연구시설과 HPC 융합
송치홍
- 교수
- 부산대학교 Core Research Facility
Advanced Imaging for Multifaceted Science: The Cryo-Electron Microscopy System at Pusan National University
극저온 전자현미경 (Cryo-EM) 분석은 기술적 혁신과 더불어 단백질 및 핵산의 구조를 고분해능으로 분석 가능하게 하여 의학·생명과학 분야에서 큰 파장을 일으켜 왔으나, 세계적인 흐름에 비해 국내의 도입은 많이 뒤쳐져 왔다. 최근 부산대학교 공동실험실습관에 새롭게 설립된 Cryo-EM 분석센터는 국내 거점대학 최초로 세계 최고 성능의 300kV 극저온 전자현미경 TITAN Krios G4와 120 kV 극저온 및 상온 전자현미경 Talos L120C를 도입하여 스크리닝에서 구조분석까지 한 장소에서 가능하도록 하는 연구지원 체제의 구축을 마쳤다. 또한, Cryo-FIB-SEM (Aquilos2)도 동시에 도입하여 Aquilos2에서 가공·제작한 동결 세포의 절편을 같은 장소에서 TITAN Krios G4로 옮겨 분석이 가능하도록 연구기반을 구축하였다. 이 플랫폼 안에서 세포 내에서 단백질 구조분석을 하는 in situ Cryo-electron tomography 기술 지원도 적극적으로 실행할 예정이다. 또한 TITAN Krios G4와 Talos L120C는 STEM tomography와 MicroED분석에도 적극 사용될 예정으로 부피가 큰 시료나 미세 결정의 구조 분석 지원도 실행한다.
이런 분석들은 기본적으로 고해상도의 이미지를 수천에서 수백만장까지 일괄 처리해야만 하며, 최근에는 심층학습과 인공지능 기술의 도입으로 이미지 프로세싱과정의 입자분류, 매칭, 정렬 등이 점점 더 고속화 되고 정밀화 되어 가고 있다. 따라서 GPU기반의 고성능 컴퓨팅 시스템이 필요하고 고속의 다중 코어 프로세서, 대용량 메모리, 병렬컴퓨팅 기술이 요구된다. 또한 데이터 용량이 매우 크기 때문에 충분한 저장용량이 필요하며, 빠른 데이터 접근을 위해서 고속의 디스크 시스템 및 크라우드 기반 스토리지가 필요하다. 분석지원시스템을 위해서 이런 대용량의 데이터 이동의 빠른 네트워크 인프라와 대역폭 또한 필요하다. 한국과학기술정보연구원 글로벌 대용량 실험데이터 허브센터 (GSDC) 는 이를 위한 최적의 환경을 제공해 주어서 분석 지원 시스템을 위한 필수적인 요구사항을 충족시키며, 연구자들에게 대용량 실험 데이터를 원활하게 처리하고 분석할 수 있는 시스템을 제공한다. 앞으로 Cryo-EM을 활용한 연구들은 더욱 다양해 지고 활용도 많아질 것이다. 따라서 연구자들의 분석관련 교육 및 실습에서도 GSDC의 도움이 필요할 것으로 예상된다.
Educational History
Employment History
Workshop - 대형연구시설과 HPC 융합
박기수
- 선임기술원
- 포항가속기연구소
PAL-XFEL 이용자 실험을 위한 Data Acquisition 시스템
PAL(Pohang Accelerator Laboratory)-XFEL(X-ray Free Electron Laser) 실험에 대한 소개와 대면적 검출기에서 나오는 실험 데이터를 스토리지에 저장하기 위한 데이터 전송 기술에 대한 소개, 획득한 실험 데이터를 처리하기 위한 데이터 프로세싱에 관련하여 소개하고자 합니다. PAL-XFEL에서 수행되는 실험 중 하나인 SFX (Serial Femtosecond Crystallography)는 단백질 결정 구조를 분석하는 기법으로서 신약 개발에 응용됩니다. 이 실험은 대면적 검출기를 사용하여 시간당 많은 실험 데이터를 생성합니다.
이 발표에서는 SFX 실험 데이터 처리 관련 내용을 예로 들며 그 과정을 설명하고자 합니다.
Educational History
Employment History
Workshop - 대형연구시설과 HPC 융합
김영민 (Kim, Young-Min)
- 연구원
- 한국천문연구원(KASI)
Big Data and Machine Learning in LIGO and KAGRA
중력파는 약 100여년전 아인슈타인의 중력이론에서 예측되었으며, 레이저 간섭계를 이용한 거대 관측시설을 이용하여 중력파 신호를 관측할 수 있다. 2015년 LIGO는 첫 번째 중력파 신호 GW150914를 성공적으로 관측하고 이는 블랙홀 쌍성 병합으로부터 발생됨을 알 수 있었다. 이후, Virgo와 동시관측이 이루어진 두 번째 관측가동에서 2017년 중성자별 쌍성병합에서 발생된 중력파 신호 GW170817을 관측함과 동시에 전자기파 후속관측이 이루어져 다중신호천문학의 시작을 알렸다. 세 번째 관측가동을 마친 시점에서 약 90여개의 신호(confident event)를 확인하였고, 2023년 네 번째 관측가동과 함께 KAGRA도 동시관측을 진행하였다.
본 발표에서는 중력파 거대 관측시설로부터 얻어진 빅 데이터로부터 중력파 신호 분석이 어떻게 이루어지는지 간략히 리뷰하고, 국내 연구진들에 의해 이루어진 연구들을 중심으로 GSDC 자원을 활용하여 어떻한 결과들을 얻어내었는지 발표하고자 한다. 이 과정에서 빅데이터 분석 방법론과 머신러닝 등이 어떻게 활용되었는지 설명하고자 한다.
Educational History
Employment History
Workshop - 대형연구시설과 HPC 융합
노서영
- 교수
- 충북대학교 소프트웨어학부
High Performance Computing in CERN ALICE Experiment
CERN에서 진행중인 대부분의 실험은 High Throughput Computing 기반의 WLCG(Worldwide LHC Computing Grid)를 통해 대규모 데이터를 처리하고 있다. 하지만, 2028년 HL-LHC(High Luminosity-Large Hadron Collider) 단계로 진입하게 되면 기존 데이터 생산량 대비 10배 이상의 방대한 데이터가 생성될 것으로 예측된다. 매년 엑사바이트가 넘는 데이터를 생산, 저장, 처리해야 한다. 이러한 환경은 기존의 컴퓨팅자원으로 처리할 수 있는 한계를 넘게 되고 추가적인 자원을 확보해야 할 필요성이 대두되었다. CERN의 주요 실험에서는 HPC 자원을 활용하는 방안들을 고민하고 있고 다양한 프로젝트를 수행하고 있다. WLCG 기반의 데이터 처리 방식과 슈퍼컴퓨팅센터의 HPC 자원을 활용하는 것은 상이한 컴퓨팅 인프라의 구조와 운영환경의 차이만큼 다양한 요소들을 고려해야 한다.
본 발표에서는 CERN의 HPC를 활용하는 다양한 프로젝트를 살펴보고 ALICE 실험의 현황과 HPC와 연계하는 활동들을 소개한다. 이를 통해 국내 슈퍼컴퓨팅 인프라와 CERN 실험간 연계할 수 있는 방안에 대해 논의 한다.
Educational History
Employment History
Workshop - 대형연구시설과 HPC 융합
Ian Watson
- Research Fellow
- University of Seoul
Computing Technologies for CMS for the HL-LHC
The HL-LHC will deliver an order of magnitude more data than the already big data set obtained by the LHC and therefore requires consideration of the computational environment which will be required. The CMS Collaboration at the LHC is developing a heterogenous computing model to run the simulation, reconstruction and analysis of its data, particularly for the HL-LHC era.
This talk will discuss the methodology and developments that have been done and are ongoing for this effort.
Educational History
Employment History
Workshop 2 - 초고성능컴퓨팅 활용한 기후와 천문 분야 문제 해결 (비파) | |
|
|
Time | Program |
13:00~13:30 | 초고성능컴퓨팅 활용 AI 고해상도 전지구 날씨/기후 예측 시스템 개발 강대현 선임연구원(KIST) |
13:30~14:00 | 물리기반 인공지능 연구 동향과 FourCastNet 성능 분석 김동훈 교수(제주대학교) |
14:00~14:30 | 설명가능AI를 활용한 계절내 및 계절 기후 예측 이준이 교수(부산대학교) |
14:30~15:00 | 퓨샷 러닝 기법을 활용한 한반도 겨울철 온도 예측 시스템 개발 함유근 교수(전남대학교) |
15:00~15:30 | Break |
15:30~15:50 | 국가슈퍼컴퓨터를 활용한 차세대 우주론적 유체역학 수치실험 DARWIN 수행 - 왜소은하의 형성 기원 연구 및 표준우주모형 난제 접근 신지혜 선임연구원(한국천문연구원) |
15:50~16:10 | Estimating the amount of computing resources required for the DARWIN project 이재현 위촉연구원(고등과학원) |
16:10~16:30 | Heterogeneous Parallel-Computing Code for the DARWIN Project 김용휘 선임연구원(한국과학기술정보연구원) |
16:30~16:50 | How Can Machine Learning Help Us When Simulating and Studying the Universe? 김지훈 교수(서울대학교) |
16:50~17:10 | The implementation of baryonic physics in cosmological large volume simulations and DARWIN 최이나 교수(서울시립대학교) |
Workshop - 초고성능컴퓨팅 활용한 기후와 천문 분야 문제 해결
강대현 (Daehyun Kang)
- 선임연구원
- 한국과학기술연구원(KIST)
초고성능컴퓨팅 활용 AI 고해상도 전지구 날씨/기후 예측 시스템 개발
지난 수 십년간 날씨기후 예측 분야에서는 역학기반 수치모델을 통한 예측 방식이 주로 사용되었다. 최근 딥러닝을 활용한 예측이 발전함에 따라, 전지구 대기 변동의 비선형성을 구현하기 어려웠던 기존 통계적 예측의 한계를 극복하며 전지구 날씨 예측 분야에도 활용되고 있다.
본 연구는 이러한 데이터기반 날씨 예측 (Data-driven Weather Prediction; DDWP) 모델을 활용해 실용적 수준의 중기~계절내규모 예측 성능 달성을 목표로 한다. 데이터기반 날씨 예측 모델인 FourCastNet을 활용해 전지구 2.5x2.5도 해상도로 내삽된 저해상도 ERA5 자료를 1일 간격으로 학습한 모델을 바탕으로 1~30일 전지구 앙상블 예측을 수행하였다. 학습된 모델의 500 hPa 지위고도 변수의 7일 예측성능을 아노말리 상관계수 (anomaly correlation coefficient; ACC)로 살펴본 결과, 전지구 7일 예측에서 약 0.7의 예측성능을 나타내었고, 대기 수증기의 시공간 분포와 순환장의 역학적 관계가 현실적으로 모의되었다. 구축된 전지구 모델을 기반으로 강수량 및 미세먼지 산출 모듈을 함께 개발하였다. 딥러닝을 통해 효율적 방식의 중기~계절내규모 예측 생산 및 성능개선에 따른 자연재해 피해저감 및 산업분야 파급효과가 기대된다.
Educational History
Employment History
Workshop - 초고성능컴퓨팅 활용한 기후와 천문 분야 문제 해결
김동훈
- 학술연구교수
- 제주대학교 태풍연구센터
물리기반 인공지능 연구 동향과 FourCastNet 성능 분석
최근에는 데이터 의존적 방법의 한계를 극복하기 위한 수단으로 물리 기반 신경망 (Physics Informed Neural Networks, PINNs)의 개발이 큰 주목을 받고 있다. 딥러닝 모델은 데이터로부터 패턴과 상관관계를 학습하는 데 있어 인상적인 기능을 보여주지만 명시적인 지침 없이 물리적 법칙이나 제약 조건을 명시적으로 학습하는 데 어려움을 겪는 경우가 많다. 이에 물리 기반 신경망의 최근 연구 동향을 조사하고, 이와 대비되는 데이터 의존적 신경망 (Data Driven Neural Network)의 선도 모델인 FourCastNet의 성능을 함께 분석하여 보았다.
PINNs는 딥러닝의 힘을 시스템의 물리적 법칙 또는 지배 방정식과 결합하는 일종의 신경망 아키텍처이다. PINNs의 핵심 아이디어는 시스템의 지배 방정식을 신경망 훈련 프로세스의 추가 제약 조건으로 통합하는 것이다. 그렇게 함으로써 PINNs는 물리 방정식에 인코딩된 도메인 지식을 활용하여 사용 가능한 데이터가 제한적이거나 잡음이 많은 경우에도 예측의 정확성과 일반화를 향상시킬 수 있다.
PINNs는 딥러닝의 힘을 시스템의 물리적 법칙 또는 지배 방정식과 결합하는 일종의 신경망 아키텍처이다. PINNs의 핵심 아이디어는 시스템의 지배 방정식을 신경망 훈련 프로세스의 추가 제약 조건으로 통합하는 것이다. 그렇게 함으로써 PINNs는 물리 방정식에 인코딩된 도메인 지식을 활용하여 사용 가능한 데이터가 제한적이거나 잡음이 많은 경우에도 예측의 정확성과 일반화를 향상시킬 수 있다.
Educational History
Employment History
Workshop - 초고성능컴퓨팅 활용한 기후와 천문 분야 문제 해결
이준이 (June-Yi Lee)
- 부교수
- 부산대학교 기후과학연구소
설명가능AI를 활용한 계절내 기후 예측
계절내 기후예측은 기상예보와 계절기후 예측을 연결해 이음새 없는 예측을 가능하게 하는 핵심 요소이다. 지난 20 여년 기간 계절내 기후예측을 가능하게 하는 요인들에 대한 과학적 연구와 더불어 역학기반 수치모델을 통한 이음새 없는 예측 시스템을 개발하고 개선하기 위한 상당한 투자와 노력이 전 세계적으로 이루어지고 있다.
본 연구는 현재 개발하고 있는 데이터기반 날씨 예측 모델인 FourCastNet의 계절내 기후 예측 성능을 평가하고 예측성 근원을 평가하는 것을 목표로 한다.
본 발표에서는 먼저 전 세계 현업 수치모델 중 계절내 예측에서 최고의 성능을 보이고 있는 유럽중기예보센터(ECMWF) 모델의 예측과 비교해 AI 예측의 가능성 및 한계를 평가한다. 특히 계절내 기후예측에 가장 중요한 요소인 매든-줄리안 진동(MJO)과 북반구 여름철 계절내 진동(BSISO)의 예측 성능을 비교한다. 그 다음 설명가능AI를 활용해 MJO와 BSISO 예측성의 근원을 토의한다.
역학기반 수치모델을 넘어서기 위해서는 단순한 기계학습 적용을 넘어서는 ‘설명가능AI’ 기법의 확보가 선결되어야 한다. 초기조건으로부터 예측성이 결정되는 기상예보와 외부 강제력의 영향이 커지는 계절기후예측 사이에서, 계절내 시간 규모는 대기의 비선형성이 커지는 시점으로 딥러닝의 장점이 극대화 되는 시기로 판단된다.
MJO와 BSISO의 예시를 통해 본 발표는 설명가능AI가 기존에 알려지지 않은 예측성 근원에 대한 탐구를 가능하게 하며, 최적의 예측변수 산정을 통해 예측성능 향상에 기여할 수 있음을 제시한다.
Educational History
Employment History
Workshop - 초고성능컴퓨팅 활용한 기후와 천문 분야 문제 해결
함유근 (Yoo-geun Ham)
- 정교수
- 전남대학교 지구환경과학부
퓨샷 러닝 기반 한반도 겨울철 온도 예측 시스템 개발
최근 비선형성을 포함한 관련성을 고려할 수 있는 딥러닝 기반 예측 시스템이 기후 분야에 활용되고 있다. 기존의 딥러닝 기반 예측 모형은 학습시킬 수 있는 관측 데이터가 충분하지 않아, 역학 모형에서 산출되는 데이터로 학습 데이터를 증강하였다. 하지만 역학 모형에서 산출되는 데이터는 열대를 제외하고 여전히 관측 데이터를 대체할 정도의 신뢰 수준에 미치지 못한다.
따라서 본 연구는 부족한 데이터로 학습 및 테스트를 진행할 때 발생하는 과적합과 같은 문제들을 극복하고자 제안된 퓨샷 러닝 (Few-shot learning)을 도입하였다. 특히, 중위도의 유라시아 대륙과 태평양 사이에 위치하는 지리적 특성으로 인해 복잡한 예측 시스템의 개발이 요구되는 한반도 겨울철 온도를 예측하고자 하였다. 퓨샷 러닝 알고리즘 중에서 최적화된 초기 가중치를 생산하는 것을 목표로 하는 기법인 MAML(Model-agnostic Meta-learning)을 활용하였다. 또한 데이터 증강을 위해 출력자료는 한반도 겨울철 온도와 관련된 지수들로, 입력자료는 일평균 데이터를 무작위 추출 후 평균하여 추가적으로 구성하였다. 그 결과, 겨울철 평균, 12월, 1월, 2월의 케이스에 대해 상관계수로 평가한 예측성능이 0.61, 0.44, 0.47, 0.42로 기존 기법에 비해 유의하게 향상된 것을 확인하였다. 이는 기후 예측 시스템을 개발할 때 데이터가 불충분하더라도, 퓨샷 러닝을 활용하여 보완할 수 있음을 시사한다.
Educational History
Employment History
Workshop - 초고성능컴퓨팅 활용한 기후와 천문 분야 문제 해결
신지혜
- 선임연구원
- 한국천문연구원
국가슈퍼컴퓨터를 활용한 차세대 우주론적 유체역학 수치실험 DARWIN 수행 - 왜소은하의 형성 기원 연구 및 표준우주모형 난제 접근
왜소은하는 우주의 구조를 형성하는 계층적 병합의 기본 요소이다. 우주상의 모든 우주 구조물은 우주 초기에 형성된 왜소은하에 의해 구성되었다. 왜소은하를 이해한다는 것은 ‘왜소은하'라는 가장 작은 질량의 은하를 이해하는 것을 넘어, 우주 구조의 생성과 진화, 암흑물질의 특성에 대한 이해를 제시한다. 지금보다 10배 이상 어두운 천체를 관측할 수 있는 차세대의 전천 탐사 관측(DESI, LSST), 우주망원경(JWST), 초대형 망원경(GMT, TMT)은 왜소은하를 비롯하여 우주를 이해하는 새로운 지평을 열어나갈 것이다. 그러나 관측 결과는 한 순간에 멈춰있는 스냅숏 정보이기 때문에 은하의 형성과 진화를 시간에 따라 일괄적으로 기술하는 데엔 한계가 있다.
더불어, 은하의 형성과 진화의 메카니즘을 이해하기 위해서는 정립된 이론과 최신 천체 물리의 집적체인 수치실험 결과와의 비교 연구가 필수적이다. 본 연구진은 차세대 관측에 대응할 수 있는 세계 최고 수준의 우주론적 유체역학 수치실험 DARWIN을 수행함으로써, 왜소은하의 형성과 진화를 가장 사실적으로 기술할 수 있는 이론 모형을 제시하고자 한다. 왜소은하 형성기원 규명에 최적화된 수치실험 결과를 차세대의 고해상도/극미광/광대역 관측 결과와 비교함으로써, 해당 분야의 세계적 선도 연구그룹으로 발돋움 하고자 한다.
Employment History
Workshop - 초고성능컴퓨팅 활용한 기후와 천문 분야 문제 해결
이재현 (Lee, Jaehyun)
- 위촉연구원
- 한국과학기술원부설고등과학원(KIAS)
다윈 프로젝트 계산자원 요구량 추정 (Estimating the amount of computing resources required for the DARWIN project)
We estimate the required computing resources of the suite of the DARWIN simulations, based on our previous cosmological hydrodynamical simulations. The main aim of this investigation is to determine the scale of simulations that reach the current age of the universe within the resources provided by the Grand Challenge program. We plan to conduct Darwin-1 on Nurion with a spatial resolution of 0.5kpc and a dark matter mass resolution of 6.8×106M◉.
We estimate that DARWIN-1 can be done within the resource limit when it has the initial condition of 10243 particles and grids in a cube of Lbox=65.5cMpc. DARWIN-2 aims at achieving a spatial resolution of 0.1kpc and a dark matter resolution of 105M◉ in the same initial condition of DARWIN-1. For this goal, DARWIN-2 requires computing resources at least 256 times more than DARWIN-1 in a unit volume. Therefore, we plan to conduct DARWIN-2 by zooming the regions of interest selected from DARWIN-1.
We will determine the scale and number of the zoomed regions based on the performance of the hybrid parallelism optimization of RAMSES and the amount of resources provided by the R&D support program for the next generation supercomputer.
Educational History
Employment History
Workshop - 초고성능컴퓨팅 활용한 기후와 천문 분야 문제 해결
김용휘
- 선임연구원
- 한국과학기술정보연구원
Heterogeneous Parallel-Computing Code for the DARWIN Project
The DARWIN project aims to enhance our understanding of dwarf galaxies through advanced cosmological hydrodynamic simulations. These simulations incorporate complex interactions involving dark matter, gas dynamics, stellar evolution, and various physical processes. In conducting large-scale simulations, reducing computing time and optimizing cluster memory usage are most important issues, given hardware limitations. To address these challenges, the code's design incorporates advanced parallel computing techniques such as task-based parallelism and data parallelism, resulting in substantial performance improvements compared to traditional sequential algorithms. In addition, the code's modular design ensures adaptability and scalability, seamlessly compatible with future advancements in parallel computing, including integration with distributed computing frameworks and specialized accelerators. This represents a remarkable advancement in the research fields of astrophysics as well as computational science, providing us with a powerful tool to understand the details of our Universe.
In this talk, I will present the code development processes for heterogeneous computing clusters, utilizing MPI, OpenMP, OpenACC, and CUDA. Our efforts in code development will play a crucial role in optimizing performance on heterogeneous computing clusters and driving the next generation of cosmological hydrodynamic simulations.
Educational History
Employment History
Workshop - 초고성능컴퓨팅 활용한 기후와 천문 분야 문제 해결
김지훈
- 부교수
- 서울대학교
How Can Machine Learning Help Us When Simulating And Studying the Universe?
As astronomers and cosmologists deal with an inherently "astronomical” size of data, machine learning is being rapidly adopted in a variety of astrophysical applications. In this talk, I will showcase a few examples how it can potentially revolutionize the way we study and simulate the Universe. In one example, I will introduce a pipeline that estimates baryonic (visible) properties of galaxies based only on their dark matter (DM; invisible) content in a large DM-only simulation. A similar strategy is shown to estimate properties of highly-resolved galaxies based only on coarsely-resolved ones. I will also briefly discuss how machine learning could be utilized to extract fundamental parameters of the Universe from a large galaxy survey.
Educational History
Employment History
Workshop - 초고성능컴퓨팅 활용한 기후와 천문 분야 문제 해결
최이나
- 조교수
- 서울시립대학교
The implementation of baryonic physics in cosmological large volume simulations and DARWIN
Computational astrophysics, the field that explores the universe through computer simulations, has witnessed remarkable advancements in recent years, propelled by advancements in computing power and analysis algorithms. These simulations encompass the evolution of the universe and its galaxies from the inception of the Big Bang to the present day, covering expansive regions of space of 100 Mpc³ which is (3×1021 km)3 or more. However, these large-scale simulations of galaxy formation employ a "sub-grid" approach to account for physical processes that occur at scales below the explicit spatial resolution. Baryonic physics, involving the formation of stars, their feedback effects from supernova explosions, as well as the formation of black holes and their feedback effects from the energy released, are incorporated through sub-grid models. These models aim to capture the essential physics despite not being explicitly simulated at the resolved scales.
In this presentation, I will delve into the baryonic physics models utilized in academic research and specifically discuss the development and implementation of baryonic physics models in the DARWIN framework.
Educational History
Employment History
Workshop 3 - 이기종 아키텍쳐 기반 초고성능 컴퓨팅 시스템 기술 (거문고 A) | |
|
|
Time | Program |
13:30~14:00 | 초고성능 컴퓨팅을 위한 딥러닝 가속기 구조 활용 방안 김한준 CTO(퓨리오사 AI) |
14:00~14:30 | AI-accelerated HPC 나승주 상무(Intel) |
14:30~15:00 | AMD End to End 데이터센터 컴퓨팅 솔루션 김도영 이사(AMD) |
15:00~15:30 | Field에서 바라본 System Bus Interface 기술동향과 방향성 김지훈 차장(Microchip) |
15:30~16:00 | Break |
16:00~16:30 | Process-in-Memory with Heterogeneous Computing 김동준 교수(KAIST) |
16:30~17:00 | 한국형 HPC 클러스터 원격 통합 관리 시스템 유명환 CEO(XSLAB) |
17:00~17:30 | 오픈소스 기반 서버관리 펌웨어 기술 개발 김상완 책임연구원(KISTI), 이호석 부사장, 임헌정 수석(TSN Lab) |
Workshop - 이기종 아키텍쳐 기반 초고성능 컴퓨팅 시스템 기술
김한준
- CTO
- FuriosaAI
초고성능 컴퓨팅을 위한 딥러닝 가속기 구조 활용 방안
최근 Google의 TPU 등을 비롯하여 딥러닝 가속기가 확산되면서, HPC에 적용될 수 있는 가능성들이 탐색되고 있으나, 일반적으로 HPC는 FP64의 정밀도를 필요로 하므로, 알고리즘 혹은 가속기의 설계에 추가적인 변화를 필요로 한다.
본 발표에서는 전통적인 HPC 아키텍쳐 중 하나인 벡터 프로세서를 텐서 연산으로 확장한 구조를 기반으로 하고 있는 FuriosaAI의 딥러닝 가속기의 구조를 소개하고, HPC에 적합한 형태로 추가적인 변화 가능성을 논의해보고자 한다.
Educational History
Employment History
Workshop - 이기종 아키텍쳐 기반 초고성능 컴퓨팅 시스템 기술
나승주
- 상무
- 인텔 코리아
AI-accelerated HPC
생성형 AI와 LLM은 엔비디아 GPU에서만 실행할 수 있다고 믿고 있다. 인텔은 최근 MLPerf 트레이닝 3.0 결과의 발표로, 인텔의 Gaudi2는 GPT-3의 LLM 트레이닝 벤치마크 성능 결과를 제출한 단 두 개의 반도체 솔루션 중 하나라는 것을 입증하였다. 인텔의 AI 솔루션은 폐쇄적인 에코시스템에서 벗어나고자 하는 고객에게 경쟁력을 제공하며 매우 매력적인 가격 대비 성능의 대안이 될 것이다.
이번 발표에서는 인텔의 인공지능 솔루션을 소개하고 AI가 고성능 컴퓨팅(HPC)을 가속화하는 방법을 밝힐 것입니다.
Educational History
Employment History
Workshop - 이기종 아키텍쳐 기반 초고성능 컴퓨팅 시스템 기술
김지훈
- 차장
- Microchip Technology
Field에서 바라본 System Bus Interface 기술동향과 방향성
Field에서는 다양한 버스 인터페이스를 사용하고 있으며, Application이나 market에 따라 다른 버스 인터페이스를 사용하고 있습니다.HPC에서는 꾸준히 PCIe를 사용해 왔으나, 다른 Market에서는 다른 버스를 사용하여 왔습니다.
예를 들어, 수년전만 해도 Automotive와 Military 분야에서는 PCIe 는 대두된 적이 없었습니다. 하지만 근래에는 PCIe를 이용하고자 하는 다양한 움직임이 있습니다. 이 것은 데이터가 급격히 늘어나고 다양한 Application이 진보와 발전을 거듭하고 있기 때문입니다.
많아진 데이터를 저장하고 읽어서 사용함에 있어 얼마나 효율적으로 처리할 수 있는 것에 대한 고민을 할 수 밖에 없습니다. Field에서 이러한 변화를 가장 가깝게 느끼고 경험하고 있으며, 이를 바탕으로 Field에서 일어나고 있는 기술적인 동향과 방향을 공유하고자 합니다.
또한 Microchip이 바라보고 있는 방향도 같이 공유고자 합니다.
Employment History
Workshop - 이기종 아키텍쳐 기반 초고성능 컴퓨팅 시스템 기술
김동준 (John Dongjun Kim)
- 교수
- KAIST
Processing-in-Memory for Heterogeneous Computing
Processing-in-memory (PIM), where compute is moved close to memory or the data, has been widely explored to accelerate emerging workloads. Recently, a number of PIM products have been released by different memory vendors, each adopting different microarchitectural organization of their compute units, ranging from fixed functional units to programmable general-purpose compute cores near memory. However, since each compute unit can only access its local memory, all communication between compute units (or remote data access) must be conducted through the host CPU, thereby severely hampering application performance. As a result, PIM acceleration is often done through heterogeneous computing by exploiting the host processing.
In this talk, I will discuss how we can enable more scalable PIM architectures through a dedicated PIM interconnect that minimizes the impact of heterogeneous computing.
Educational History
Employment History
Workshop - 이기종 아키텍쳐 기반 초고성능 컴퓨팅 시스템 기술
유명환
- 대표 (CEO)
- 엑세스랩 주식회사
한국형 HPC 클러스터 원격 통합 관리 시스템
현재 국내에서 자체적으로 개발하여 활용 중인 클러스터 관리도구 기술이 없으며, 슈퍼컴퓨터 5호기에서 활용 중인 Bright Cluster Manager는 NVIDIA (전 Bright Computing) 사의 상용 솔루션으로 지속적인 상용 라이선스 유지 보수 비용이 들어가며 국내 환경에 맞도록 기술을 추가하거나 변경하기가 매우 어려운 상황입니다.
오픈소스로 활용 가능한 OpenHPC, MAAS 등 국외 클러스터 관리도구 등이 있으나 역시 국내 환경에 맞도록 이기종 시스템 클러스터 구축, 제어, 모니터링 하기 위해 추가적으로 기수를 개발하고 안정화하려면 이에 따른 많은 노력과 시간이 소요되며 일부의 경우 안정성도 떨어진다는 문제점이 있습니다.
이에 단순한 웹 개발이 아닌 실제 하드웨어 서버를 개발한 경험과 실제 BMC를 개발한 경험을 기반으로 대규모 이기종 하드웨어 시스템의 효율적인 클러스터 제어 및 장애 관리를 위한 통합 관리 시스템을 다년간 개발해 온 내용들을 소개하고자 합니다.
Educational History
Employment History
Workshop - 이기종 아키텍쳐 기반 초고성능 컴퓨팅 시스템 기술
김상완 책임연구원(KISTI 슈퍼컴퓨팅기술개발센터)
이호석 부사장(TSN Lab)
임헌정 수석연구원(TSN Lab)
오픈소스 기반 서버관리 펌웨어 기술 개발
데이터 시장 확대
원천기술의 부재
개발 방안
Educational History
Employment History
Workshop - 이기종 아키텍쳐 기반 초고성능 컴퓨팅 시스템 기술
김도영 (Doyoung Kim)
- 이사
- AMD Korea
AMD End to End 데이터센터 컴퓨팅 솔루션
현재의 데이터센터는 기하급수적으로 늘어나는 요구사항에 대응하기 위해 보다 정교하고 다양한 컴퓨팅 솔루션이 필요합니다.
AMD는 이처럼 고도화된 모든 종류의 연산에 완벽히 부응하는 맞춤형 데이터센터 솔루션을 제공합니다.
여전히 데이터센터의 핵심으로 세계 최고의 성능을 자랑하는 데이터센터 CPU부터 최근 이기종 컴퓨팅의 핵심 워크로드로 부상한 LLM 등 AI/ML에 최적화된 업계 최초의 데이터센터 APU까지, AMD가 소개하는 미래 데이터센터 혁신의 답을 확인하시기 바랍니다.
Educational History
Employment History
Workshop 4 - 슈퍼컴퓨팅 인프라 운영 및 서비스를 위한 기술 교류회 (가야금 A - 비공개 | Closed Session) | |
|
|
Time | Program |
13:30~14:00 | AI 가속기 아키텍처 및 성능 비교 분석 |
14:00~14:30 | AI를 활용한 기상기술연구 소개 |
14:30~15:30 | 디지털트윈 기반 데이터센터 설계 및 운영 업무 고도화 |
15:00~15:30 | Break |
15:30~17:00 | 슈퍼컴퓨터 운영 기술 공유 및 향후 계획 논의 전체 토의 |
Workshop 5 - 지구과학 데이터 가시화 (해금 A) | |
|
|
Time | Program |
13:30~14:00 | KISTI 지구과학 데이터 가시화 서비스 계획 조민수 박사(KISTI) |
14:00~14:30 | VAPOR를 이용한 태풍 수치실험 3차원 데이터 가시화 박진영 박사(UNIST) |
14:30~15:00 | 가상현실 기반의 기후위기 전략 시뮬레이션 콘텐츠 개발에 활용 가능한 고분해능 기상·해양자료 생산 강성대 대표(그린시뮬레이션) |
15:00~15:30 | 기상/해양 데이터를 이용한 가상/증강 가시화 콘텐츠 개발 박상훈 대표(비즈아이앤에프) |
15:30~16:00 | Break |
16:00~16:30 | 글로벌 VR/AR/MR 기술 및 장비 개발 동향 하태진 대표(버넥트) |
16:30~17:00 | 엔비디아 Digital Twin Earth (E2) 프로젝트 류현곤 부장(NVIDIA) |
17:00~18:00 | CAVE를 활용한 지구과학 데이터 가시화 협력 방안 논의 조민수 박사(KISTI) |
Workshop - 지구과학 데이터 가시화
조민수
- 부원장
- 한국과학기술정보연구원
KISTI 지구과학 데이터 가시화 서비스 계획
KISTI는 2022년 7월부터 국내 최대 규모의 360도 몰입형 가상증강(VR•AR) 가시화 시스템 CAVE(Computing& Advanced Visualization Environment)를 운영하고 있습니다.
가시화를 위한 데이터 전처리를 고속으로 수행하기 위해, 가시화 전용으로 이론성능 426 TF급 계산클러스터를 운영하고 있는데, 이 클러스터의 18대 계산 노드에는 A100 GPU가 2개씩 탑재되어 있습니다. 고해상도의 4K 입체 프로젝트 활성화를 위해, 14대의 디스플레이 노드에는 A100 GPU가 1개씩 탑재되어 있습니다. 360도 스크린에 영상을 디스플레이 하기 위해, 13대의 프로젝터가 작동되고 있습니다.
이 발표에서는 KISTI 슈퍼컴퓨터를 활용하고 있는 지구과학(기상/기후/해양, 천문/우주 등) 분야 연구자들을 위해, CAVE를 이용한 가시화 서비스 계획을 소개하고자 합니다.
Educational History
Employment History
Workshop - 지구과학 데이터 가시화
박진영
- 박사후연구원
- UNIST
VAPOR를 이용한 태풍 수치실험 3차원 데이터 가시화
Visualization and Analysis Platform for Ocean, atmosphere and solar Researchers(VAPOR)는 대기 및 해양 등 자연 과학 분야의 수치모델 사용자에 특화되어 수치자료를 효율적으로 분석하고 가시화할 수 있도록 지원하는 오픈소스 기반 3차원 가시화 및 분석 도구로, National Center for Atmospheric Research(NCAR)의 Computational and Information Systems Lab(CISL)에서 개발되었으며, 2011년부터 KISTI와 국제 공동연구를 통해 꾸준히 새로운 기능을 추가하고 가시화 성능을 향상시키고 있다.
이에, VAPOR를 이용한 3차원 과학적 가시화를 통해 태풍과 같은 특이 기상 현상을 직관적으로 분석하고자 2018년 태풍 Trami 사례를 Weather Research and Forecasting (WRF) 모델을 통해 모의하고, 그 결과를 VAPOR를 통해 가시화하였다. 전반적인 예측 결과 뿐 아니라, 적용한 구름미세물리방안에 따른 태풍 구조 및 구름 내부 수적을 가시화하고 모의 결과를 분석하였다.
본 발표를 통해, VAPOR를 소개하고, 최신 버전의 VAPOR를 이용하여 특이 기상 현상을 가시화하고 분석하는 방법을 소개하려 한다.
Educational History
Employment History
Workshop - 지구과학 데이터 가시화
강성대 (Sung-Dae Kang)
- 대표 (CEO & CTO))
- 주식회사 그린시뮬레이션
가상현실 기반의 기후위기 전략 시뮬레이션 콘텐츠 개발에 활용 가능한 고분해능 기상·해양자료 생산
코로나 팬데믹과 실시간 그래픽 기술의 진보가 맞물려 메타버스의 시대가 한층 더 가속화하고 있다. 전문가들은 현재 개별 기업 단위로 개발되고 있는 메타버스의 기술들이 향후 빠른 시간 내에 평준화될 것이며, 비즈니스의 핵심으로서 창의적이고 재미있는 콘텐츠로 많은 사용자를 확보하는 것이 비즈니스의 성패를 결정하는 중요한 분수령이 될 것이라고 한다. 특히, 엔비디아 등 글로벌 IT기업들은 기후위기를 이해하고 자연재해로 인한 사회적 문제 해결에 활용 가능한 메타버스 기반의 콘텐츠 개발에 많은 관심을 기울이rh 있다.
본 발표에서는 기상 및 해양 현상의 가시화 효과를 극대화하는데 적절한 3가지 종류 기상현상(여름철 태풍 2건, 겨울철 울릉도 대설 2건, 평범한 맑은 날 1건)의 재분석 자료(48시간 분량의 저분해능 기상·해양 자료)를 기상청 공공포털 사이트를 통해 수집하였다. 수집된 저분해능 자료는 3차원변분법(3DVAR)에 의해 고분해능자료(기상자료: 10분 간격 100m 격자분해능, 해양자료 : 30분 간격 500m 격자간격)로 재생산되었다. 3차원변분법에 의해 고분해능으로 재생산된 기상자료는 8가지 (동서방향 풍속, 남북방향 풍속, 연직방향 풍속, 상대습도, 운량, 빙정, 온도, 기압), 그리고 해양자료는 3가지(동서방향 유속, 남북방향 유속, 파고)이다.
고분해능 기상·해양자료는 가상·증강 현실 가시화 시스템과 메타버스 플랫폼과의 연계성을 보여주기 위한 데모용 콘텐츠 제작에 활용 가능하다. 또한, 메타버스 플랫폼을 이용한 디지털 콘텐츠(업무/교육 융합형 콘텐츠) 제작에도 활용 가능할 것으로 사료된다.
Educational History
Employment History
Workshop - 지구과학 데이터 가시화
박상훈
- 대표이사 / 교수
- ㈜비즈아이엔에프 / 서강대학교
기상·해양 데이터를 이용한 확장현실 가시화 콘텐츠 개발
본 발표에서는 기상·해양 관측 및 예측 데이터를 기반으로 독도와 주변 해역을 사실적으로 가시화하는 몰입형 실감 콘텐츠의 제작 사례를 소개한다.
우선 국립해양조사원으로부터 독도 주변의 고해상도 3D 지형 모델을 확보하였으며, 기상·해양의 사실적인 변화를 가시화하기 위해 시공간 시뮬레이션 데이터를 생성하였다. 개발된 콘텐츠는 KISTI CAVE 시스템에서 Unity3d 엔진을 이용한 실시간 병렬 렌더링을 통해 체험자가 최고의 몰입감을 느낄 수 있도록 설계되었다. 시각화 파라미터들의 실시간 제어를 지원하는 모바일 컨트롤 앱을 이용해 카메라 시점, 기상과 해양의 변화, 날짜와 시간 설정 등을 간편하고 자유롭게 조작할 수 있다. 그리고 CAVE 시스템 내부의 현실 체험공간과 스크린 너머의 가상공간을 연결하는 신개념 XR 기술을 활용해 과학적인 가시화 영상을 표출할 수 있도록 기획하였고, 고품질 사운드의 실시간 플레이를 통해 몰입감을 극대화할 수 있도록 구현하였다.
Educational History
Employment History
Workshop - 지구과학 데이터 가시화
하태진 (Taejin Ha)
- 대표이사
- 버넥트(VIRNECT)
글로벌 VR/AR/MR 기술 및 장비 개발 동향 (Trends in Global VR/AR/MR Technology and Development)
글로벌 VR/AR/MR 기술은 교육부터 엔터테인먼트까지 다양하게 활용되며, 스마트글라스는 지속적으로 성능과 기능이 향상되고 있습니다.
본 발표에서는 빠르게 변화하고 성장하고 있는 기술과 개발에 대한 세계적인 트렌드를 살펴보고자 합니다.
(Global VR/AR/MR technology is used in a variety of ways from education to entertainment, and performance and functionality of smart glasses are continuously improving. In this presentation, we would like to look at global trends in technology and development that are rapidly changing and growing.)
Educational History
Employment History
Workshop 6 - 계산과학·데이터·인공지능 중심 R&D플랫폼 구축을 위한 요소기술 연구개발 현황 (거문고 B) | |
|
|
Time | Program |
Session 1 : 초청 발표 | |
13:00~13:30 | First-principles computations of light and matters in the window of condensed matter physics 박노정 교수(UNIST) |
Session 2 : 중앙센터 연구개발 현황 | |
13:30~13:55 | 플랫폼 개발 현황 (overview) 이정철 단장(KISTI) |
13:55~14:20 | 플랫폼 데이터 서비스 한성근 책임연구원(KISTI) |
14:20~14:40 | Break & Discussion |
Session 3 : 전문센터 연구개발 현황 | |
14:40~14:55 | Multiscale Simulations of Nanodevices and their Automation 김용훈 교수(KAIST) |
14:55~15:10 | Modeling of next-generation oxide-semiconductor transistor 정창욱 교수(UNIST) |
15:10~15:25 | Semi-Classical Monte Carlo Simulation of Carrier Transport in Advanced Devices 장지원 교수(연세대) |
15:25~15:45 | Break & Discussion |
15:45~16:00 | Ferroelectric Tunneling Junction: Basic Concepts and Applications 이재광 교수(부산대) |
16:00~16:15 | Prospects of ab-initio molecular dynamic simulations without electrons 유재준 교수(서울대) |
16:15~16:30 | Calculating magnetic interaction from force response theory 한명준 교수(KAIST) |
16:30~16:50 | Break & Discussion |
16:50~17:05 | Computational design of lightweight high-entropy alloys 이주형 교수(GIST) |
17:05~17:20 | Steering exciton-Floquet composites in two-dimensional optoelectronic media 이재동 교수(DGIST) |
17:20~17:35 | Light-induced ferroelectric transition in SrTiO3 신동빈 교수(GIST) |
17:35~17:55 | Break & Discussion |
Workshop - 계산과학·데이터·인공지능 중심 R&D플랫폼 구축을 위한 요소기술 연구개발 현황
박노정 (Noejung Park)
- 교수
- 울산과학기술원(UNIST)
First-principles computations of light and matters in the window of condensed matter physics
On the established platforms of quantum field theory and density functional theory, we summarize the properties of interacting light and matters that we plan to calculate.
To analyze various quantum mechanical natures of solid states, theorists and experimentalists have always examined the spin or magnetization, the charge density or polarization, and the Berry curvature or orbital momenta. Our research focuses on the light-excited states of solids, putting particular emphasis on first-principles computations of nonlinear optical responses associated with those materials properties.
We hope our progress in the first-principles computation methods toward a full quantum mechanical mixture of materials and nearfield electromagnetism establish an effective and reliable bridge that connects pure theories and experimental observations.
Educational History
Employment History
Workshop - 계산과학·데이터·인공지능 중심 R&D플랫폼 구축을 위한 요소기술 연구개발 현황
이정철
- 단장
- 한국과학기술정보연구원(KISTI)
플랫폼 개발 현황 (overview)
EDISON플랫폼은 누구나 웹으로 접속해 원하는 실험을 가상으로 수행할 수 있는 계산과학공학분야 교육·연구플랫폼으로서, 지난 10여년 동안 900종 이상의 다양한 분야의 전문화된 시뮬레이션 소프트웨어를 플랫폼에 탑재하여 이공계 교육혁신을 선도해왔다. 최근에는 빠른 속도로 발전하고 있는 AI, 빅데이터 등 차세대IT 기술과의 융합을 통해 연구 효율성과 생산성을 향상시킬 수 있는 연구환경에 대한 수요가 급격히 증가하고 있다.
본 논문에서는, 이와 같은 환경 변화와 연구자 수요에 맞추어 기존 이론 실험 중심의 연구 과정 전반을 대체하여 시간과 비용을 절감할 수 있는 차세대 디지털융합R&D플랫폼, EDISON 2.0 플랫폼의 주요 기능 및 활용 시나리오를 간략히 소개하고 향후 추진 계획에 대하여 설명한다.
Educational History
Employment History
Workshop - 계산과학·데이터·인공지능 중심 R&D플랫폼 구축을 위한 요소기술 연구개발 현황
한성근
- 책임연구원
- 한국과학기술정보연구원(KISTI)
플랫폼 데이터 서비스
계산 과학 분야에서 다루는 데이터는 종류가 다양하고 매우 복잡한 특징을 가지고 있다. 다양한 데이터 소스로부터 수집한 데이터를 보다 효율적으로 관리하고 공유하기 위해서 통합된 데이터 관리 방법이 필수적이다. 특히, 최근 AI 기술의 발전으로 인해 이종의 다양한 데이터를 활용한 AI 모델 개발에도 많은 연구가 진행되고 있다. 그러나 AI 모델 개발에 있어서 가장 어렵고도 시간을 많이 소비하는 단계는 데이터 전처리 단계이다.
이러한 이슈들을 해결하기 위해 제안하는 플랫폼 데이터 서비스에서는 두 가지 대안을 제시한다. 첫째로, 사용자 정의 스키마 에디터를 제공하여 스키마를 통해 이종의 다양한 데이터를 쉽게 통합 관리할 수 있으며, 데이터에 대한 가시화와 통합 검색 등을 수월하게 할 수 있다. 둘째로, 대용량 데이터 분석 툴을 제공하여 데이터 정제(Data Cleaning), 변환(Data Transformation), 엔지니어링(Feature Engineering) 및 AI 모델을 연계한 자동 특성 생성(Auto Feature Generation)을 지원한다. 웹 기반의 UI를 지원하여 데이터를 다루는데 익숙하지 않은 연구자들도 쉽게 데이터를 처리하고 분석하여 AI 모델 개발에 적합한 데이터를 만들어낼 수 있다.
Educational History
Employment History
Workshop - 계산과학·데이터·인공지능 중심 R&D플랫폼 구축을 위한 요소기술 연구개발 현황
김용훈
- 교수
- 한국과학기술원(KAIST)
Multiscale Simulations of Nanodevices and their Automation
본 발표에서는 STEAM 디지털융합 R&D 플랫폼사업의 반도체물리 전문센터(과제명 “반도체소자물리 온라인 R&D 플랫폼 구축 및 활용 활성화”)를 소개한다.
먼저 본 센터의 연구개발 목표 및 운영 전략을 제시하고, 과제 주관 그룹(KAIST 전기및전자공학부 김용훈 교수 연구실)에서 개발 중인 주요 플랫폼 개발 현황을 공유한다.
우선 (1) 유한전압 양자수송 현상 제1원리 계산의 표준적인 기법인 밀도범함수론(density functional theory, DFT) 기반 비평형 그린함수(non-equilibirum Green’s function, NEGF) 코드 및 본 그룹에서 개발한 DFT-NEGF 방법론의 대안이 될 수 있는 다공간 제한탐색 DFT(multi-space DFT, MS-DFT) 코드의 플랫폼화에 대해 소개한다.
다음으로 (2) 복잡한 원자구조 모델링 작업, 이를 활용한 고난이도의 다단계 원자 수준 계산 워크플로우, 관련 데이터의 축적/활용 등을 용이하게 수행할 수 있게 하는 Python 기반의 통합 모델링 및 계산 자동화 프로그램의 개발 현황을 논의한다.
Educational History
Employment History
Workshop - 계산과학·데이터·인공지능 중심 R&D플랫폼 구축을 위한 요소기술 연구개발 현황
정창욱
- 부교수
- 울산과학기술원(UNIST)
Modeling of next-generation oxide-semiconductor transistor
산화물 반도체는 비정질 실리콘 소자를 대체하여 대면적, 초고해상도 디스플레이 구동 소자에 활용되어 왔다. 산화물 반도체는 실리콘 대비 큰 밴드갭 및 저온 공정성이라는 장점으로 저전력용 차세대 뉴로몰픽 및 메모리 소자 그리고 3D 적층소자 등에 활용영역을 확장하고 있어 물리모델 및 인공지능을 활용한 시뮬레이션 연구가 필요하다.
본 연구에서는 비정질 산화물 기반 소자 해석 및 설계를 위한 sub-gap states 모델, percolation 모델, nm-두께의 mobility 의존성 등 시뮬레이션 모델 개발 계획, 시뮬레이션 과정에서 생성된 데이터 DB구축, 이를 활용한 인공지능 모델 개발 계획에 대해 논의하고자 한다.
Educational History
Employment History
Workshop - 계산과학·데이터·인공지능 중심 R&D플랫폼 구축을 위한 요소기술 연구개발 현황
장지원
- 부교수
- 연세대학교
Semi-Classical Monte Carlo Simulation of Carrier Transport in Advanced Devices
지난 수십년간 진행된 Si 반도체 공정 기술 개발 과정에서 다양한 반도체 소자 시뮬레이션 기법들이 개발되고 활용되어왔다. 이 중에서 Semi-Classical Monte Carlo 기법을 이용한 반도체 소자 시뮬레이션은 Drift-Diffusion 시뮬레이션 보다 높은 수준의 정확도를 제공하며, 한정된 컴퓨터 자원에서 Quantum Transport 시뮬레이션이 다룰 수 없는 현실적인 소자구조를 다룰 수 있어, 차세대 반도체 소자 성능 예측을 위해 매우 유용한 시뮬레이션 기법이다.
본 발표에서는, Semi-Classical Monte Carlo 기법의 난수를 활용한 전하전송 Algorithm, Fermi-Golden rule 기반의 Scattering Rate 계산과 이를 활용한 소자 시뮬레이션 기법을 소개한다.
Educational History
Employment History
Workshop - 계산과학·데이터·인공지능 중심 R&D플랫폼 구축을 위한 요소기술 연구개발 현황
이재광
- 부교수
- 부산대 물리학과
Ferroelectric Tunneling Junction: Basic Concepts and Applications
Owing to the recent advances in the oxide growth technology, ferroelectricity can exist even in a few nm-thick film, which makes it possible to develop the ultrathin oxides-based ferroelectric tunneling junctions (FTJs) useful for the next generation switchable diode. In this talk, the basic concept of FTJ will be discussed and associated underlying mechanism will be introduced along with displacive ferroelectricity. Among various ferroelectric oxides, hafnium oxide (HfO2) is the most promising material for FTJ devices since it is compatible with complementary metal-oxide-semiconductor process and provides a feasible and synergistic concept. Despite the numerous advantages, low nonlinearity and On/Off ratio have hindered their applications to electronic devices. Here, combining density functional theory calculations and numerical tunneling current simulations, we demonstrate that the antiferroelectric-like head-to-head and tail-to-tail polarizations significantly enhance the non-linearity and on/off ratio at the same time, which will be an essential guideline to design high density and low power consumption electronics applications.
Educational History
Employment History
Workshop - 계산과학·데이터·인공지능 중심 R&D플랫폼 구축을 위한 요소기술 연구개발 현황
이주형
- 부교수
- 광주과학기술원 신소재공학부
Computational design of lightweight high-entropy alloys
To develop single-phase lightweight high-entropy alloys (LWHEAs), we perform massive screening over a vast material space containing more than 560,000 possible compounds by employing thermodynamic principles and examine the mechanical properties of the resulting alloys based on density functional theory (DFT) calculations. Considering LWHEAs composed of five principal elements including light atoms such as Li, Mg and Al, we identify 40 optimal atomic compositions for single-phase solid solutions in body-centered-cubic structure. Combined with DFT calculations, it is demonstrated that the valence elec- tron concentration plays an important role in determining elastic moduli and that the identified LWHEAs are ductile as is evidenced by the satisfied Pugh criteria and positive Cauchy pressure. In cases of shear modulus and yield strength, pd-hybridization between Al and transition metal atoms is shown to make a significant contribution through forming strong directional bonds. Together with an observation that the inclusion of Li and Mg atoms is instrumental in reducing the overall density, the present results provide a valuable guidance to develop novel, low-density high-entropy alloys.
Educational History
Employment History
Workshop - 계산과학·데이터·인공지능 중심 R&D플랫폼 구축을 위한 요소기술 연구개발 현황
이재동
- 교수
- 대구경북과학기술원
Steering exciton-Floquet composites in two-dimensional optoelectronic media
Via the light-matter interaction, Floquet replica are generated mimicking themselves in the electronic structure and simultaneously excitons are also excited with a considerable Coulomb interaction between electron and hole. Ultrafast mixing and coupling between exciton and Floquet states could be steered in an all-optical coherent fashion under the weak optical pumping.
In this vision, two branches of novel quantum states, i.e., exciton-Floquet composites, the quasiparticle invoking an exciton dressed with the Floquet replica or vice versa, are found to be formed. This finding suggests a unique flatform to delve into the real time formation and dissolution of novel quasiparticles in terms of a coherent modulation of exciton and Floquet states and to pursue reconfigurable optoelectronic and nanophotonic devices based on two-dimensional semiconductors.
Educational History
Employment History
Workshop - 계산과학·데이터·인공지능 중심 R&D플랫폼 구축을 위한 요소기술 연구개발 현황
신동빈
- 조교수
- 광주과학기술원
Light-induced ferroelectric transition in SrTiO3
By applying the light on materials, various intriguing properties are observed against their ambient condition. For example, it is experimentally demonstrated that light can enhance the critical temperature for superconductivity in K3C60. Recent studies revealed that ferroelectricity can be achieved by applying light on the quantum paraelectric SrTiO3. Here, we investigate the microscopic mechanism of terahertz (THz) field-induced ferroelectricity in quantum paraelectric SrTiO3. We first investigate the description of quantum paraeletric phase in SrTiO3. Based on the density functional theory calculations, we find that the quantum description between ferroeletric soft mode and lattice strain is required to evaluate the properties of the quantum paraelectric SrTiO3. With this understanding, we investigate THz field-induced ferroelectricity by solving Schrodinger-Langevin equation. Our calculation results indicate that the microscopic mechanism of this phenomenon is light-mixed state between ground and the first excited states of ferroelectric soft mode in the quantum paraelectric phase. Our studies provide microscopic understanding of the quantum paraelectric and related THz field-induced phenomenon.
Educational History
Employment History
Workshop - 계산과학·데이터·인공지능 중심 R&D플랫폼 구축을 위한 요소기술 연구개발 현황
유재준
- 교수
- 서울대학교
Prospects of ab-initio molecular dynamic simulations without electrons
Studying the behavior of materials at the atomic level is crucial, and Ab-initio molecular dynamic simulations (AIMD) are a valuable tool for this purpose. However, AIMD simulations can be time-consuming, especially for systems with many electrons. Fortunately, there have been significant advancements in DFT calculation methods and machine learning techniques that can replace the DFT calculations of quantum ground states of electrons with deep neural networks. These advancements have led to the development of new AIMD methods that can significantly reduce the computational cost of AIMD simulations without requiring the explicit treatment of electrons.
This breakthrough could revolutionize how we study materials at the atomic level by enabling us to study systems that were previously too expensive or difficult to study, such as those with a large number of electrons or under extreme conditions like high temperature and pressure. While these new AIMD methods are still being developed, the prospects are promising. Continuous advancements in DFT calculation and machine learning techniques will make these methods even more powerful and versatile.
Educational History
Employment History
Workshop - 계산과학·데이터·인공지능 중심 R&D플랫폼 구축을 위한 요소기술 연구개발 현황
한명준 (Han, Myung Joon)
- 부교수
- KAIST 물리학과
Calculating magnetic interaction from force response theory
In this talk, I will report the current status of our ‘Jx’code in which the state-of-the-art magnetic force linear response theory (MFT) is implemented.
After briefly introducing the idea of MFT, the results of benchmark calculations and the 2-dimensional van der Waals materials will be presented. A focus is on the recent update for the relativistic DFT computations.
Educational History
Employment History
Workshop 7 - 한국 슈퍼컴퓨팅센터 연합 워크숍 (대금) | |
|
|
Time | Program |
13:30~13:45 | 한국 슈퍼컴퓨팅센터 연합 소개 함재균 센터장(KISTI) |
13:45~14:00 | 대형국가연구설비를 위한 초고성능컴퓨팅 자원의 역할 권재민 부장(KFE) |
14:00~14:15 | 소재/나노 전문센터 운영현황 및 향후 계획 유춘상 센터장(UNIST) |
14:15~14:30 | IBS 우주 초고성능컴퓨팅 전문센터 소개 허무영 센터장(IBS) |
14:30~14:45 | 기상・기후・환경 분야 초고성능컴퓨팅 전문센터 소개 정성철 기상주사(기상청) |
14:45~15:00 | HPC-AI 공용인프라를 활용한 자율주행 전문센터 김종원 센터장(GIST) |
15:00~16:00 | Break |
16:00~17:30 | 한국 슈퍼컴퓨팅센터 연합 실무자 회의 (Closed Meeting) |
Workshop - 한국 슈퍼컴퓨팅센터 연합 워크숍
함재균
- 센터장
- (국가센터) KISTI 초고성능컴퓨팅정책센터
한국 슈퍼컴퓨팅센터 연합 소개
KISTI는 국가초고성능컴퓨팅센터(이하 국가센터)로 초고성능컴퓨팅 자원을 국민에게 서비스하는 유일한 기관이었음
’21년 5월 “범부처 초고성능컴퓨팅 혁신전략(이하 혁신전략)”이 발표 이후, 10대* 전략 분야 중 7개 분야 초고성능컴퓨팅센터(이하 전문센터)가 지정되어 해당 분야에 특화된 자원, 인력, 기술을 기반으로 전문화된 서비스 제공을 준비중임
* 소재·나노, 생명·보건, ICT, 기상·기후·환경, 자율주행, 우주, 핵융합·가속기, 제조기반기술, 재난·재해, 국방안보
국가센터 및 전문센터는 ’23.04 『한국 슈퍼컴퓨팅센터 연합』 구성을 합의하여 국가 초고성능컴퓨팅 자원을 공동활용 할 수 있는 협력체계 마련하고 있음
Educational History
Employment History
Workshop - 한국 슈퍼컴퓨팅센터 연합 워크숍
권재민
- 부장
- (핵융합·가속기 전문센터) 한국핵융합에너지연구원 통합시뮬레이션연구부
대형국가연구설비를 위한 초고성능컴퓨팅 자원의 역할
핵융합과 가속기는 국가의 거대과학을 대표하는 분야이다. 대형 연구설비의 건설과 운영을 통해 산출되는 데이터를 중심으로 연구가 이루어지는 특징을 갖고 있으며, 초고성능컴퓨팅 자원 또한 데이터를 중심에 두고 역할과 체계가 규정된다.
본 발표에서는 최근 세계 핵융합 연구계에서 화두로 떠오르고 있는 대형 연구 장치의 디지털 트윈 개발과 막대한 규모의 데이터에 기반을 둔 초고성능컴퓨팅 연구 동향을 소개하고자 한다. 우리나라의 경우 현재 KSTAR 핵융합 장치를 중심으로 관련 연구와 체계 구축 노력이 한창인데, 본 발표에서는 최근 진행 상황을 소개하고 미래 전망을 살펴보고자 한다. 특히 세계 핵융합계가 마주하고 있는 기술적 도전과, 이를 극복하기 위한 핵심 전략으로써의 초고성능컴퓨팅과 데이터 기반 인공지능 연구를 살펴보고자 한다.
Educational History
Employment History
Workshop - 한국 슈퍼컴퓨팅센터 연합 워크숍
유춘상
- 센터장/교수
- (소재/나노 전문센터) 울산과학기술원 슈퍼컴퓨팅센터
소재/나노 전문센터 운영현황 및 향후 계획
소재/나노 전문센터 운영현황 및 향후 계획발표
- 센터 목표/비전
- 현재 장비 현황
- (연구과제) 활용고도화 사업 소개 전문센터 참여 역할 소개 및 추진현황
- (연구과제) 초고성능컴퓨팅 인력양성 사업 추진 현황
- 향후 센터 운영 계획
Educational History
Employment History
Workshop - 한국 슈퍼컴퓨팅센터 연합 워크숍
허무영
- 센터장
- (우주 전문센터) 기초과학연구원(IBS)
IBS 우주 초고성능컴퓨팅 전문센터 소개
IBS 우주 초고성능컴퓨팅 전문센터를 소개하고, IBS내 공동활용 가능한 초고성능컴퓨팅 자원 및 향후 우주분야 특화 자원 구축 계획에 관하여 설명한다.
특히, 현재 운영 중이 1PF급 CPU 클러스터와 올해 구축 중인 GPU 클러스터에 관하여 소개한다.
마지막으로, 우주 초고성능컴퓨팅 전문센터의 향후 운영계획을 발표하고 올해부터 시범운영 중인 우주분야 R&D 지원프로그램 등 해당분야 특화 서비스를 소개한다.
Educational History
Employment History
Workshop - 한국 슈퍼컴퓨팅센터 연합 워크숍
정성철
- 기상주사
- (기상・기후・환경 전문센터) 기상청
기상・기후・환경 분야 초고성능컴퓨팅 전문센터 소개
기상청은 2000년 기상용 슈퍼컴퓨터 1호기(NEC SX-5) 도입을 시작으로 고해상도 수치예보모델을 예보업무에 활용하기 시작하였으며, 2021년 52.9PF의 성능을 가진 5호기(Lenovo SD650)를 성공적으로 도입 운영하고 있다.
2022년 8월에는 국가 초고성능컴퓨터법(약칭) 및 초고성능컴퓨팅 혁신전략에 따라 기상・기후・환경 분야 초고성능컴퓨팅 전문센터로 지정되어 국내 기상・기후・환경 분야 연구개발 활성화 및 국가 초고성능컴퓨팅 저변 확대을 위한 노력을 경주하고 있으며,
2022년에는 슈퍼컴 공동활용시스템(5호기 초기분) 1.9PF 지원을 통해, 국내 학계 및 수요 기관를 중심으로 22건의 기술지원과 학술발표 117건, 논문등재 32건, 기타(저작권, 인력양성, 수상내역 등) 27건의 활용 성과를 낼 수 있었다.
기상청은 앞으로도 국내 기상・기후・환경 분야 계산 수요 대응을 위한 초고성능컴퓨팅 인프라 자원 확보, 연구 커뮤니티 계산자원 지원 및 공동활용 지원 센터 건립 추진 등을 통한 국가 초고성능컴퓨팅 기술 확산 및 저변확대에 최선의 노력을 다할 것이다.
Educational History
Employment History
Workshop - 한국 슈퍼컴퓨팅센터 연합 워크숍
김종원 (JongWon Kim)
- 센터장/교수
- (자율주행전문센터) GIST
HPC-AI 공용인프라를 활용한 자율주행 전문센터
최근 자동차 산업의 패러다임 변화에 따라 세계적인 자율주행 기술 투자가 확대되면서, 가상주행을 위한 초고성능컴퓨팅 역량이 필수 요건으로 대두되고 있다.
따라서 지스트 자율주행 초고성능컴퓨팅 전문센터에서는 다변화된 자율주행 환경변동 시나리오에 대응한 반복적인 가상-실증 주행 순환 검증을 수행하도록, 거대규모 데이터-중심 연산을 지원하는 Top500 등재 HPC-AI 공용 인프라 컴퓨팅을 기반으로 자율주행 모빌리티 R&D를 위한 Connected Mobility 슈퍼컴퓨팅 서비스 지원하고 있다.
본 발표에서는 HPC-AI 공용인프라를 활용한 자율주행/모빌리티/디지털트윈 분야 서비스 로드맵을 소개하고자 한다.
Educational History
Employment History
Community 1 - Machine Learning for HEP (대금) | |
|
|
Time | Program |
10:00~10:30 | Self-supervised Quantum Metric Learning for High Energy jet physics 심소영 박사(서울과기대) |
10:30~11:00 | Muon g-2 and thermal WIMP DM in $U(1)_{L_\mu - L_\tau}$ Models 고병원 교수(KIAS) |
11:00~11:30 | Axion dark matter from cosmic string network 손민호 교수(KAIST) |
11:30~12:00 | Composite BSM models on the lattice 이종완 박사(IBS) |
12:00~13:30 | Luncheon |
13:30~14:00 | Towards the dripline: Nuclear Lattice Effective Field Theory approach 송영호 박사(IBS) |
14:00~14:30 | Numerical simulations with Ultra-light dark matter 이재원 교수(중원대) |
14:30~15:00 | Searches for dark sector phenomena at Belle II 김용규(연세대) |
15:00~15:30 | Machine Learning Technique for High Energy Physics Data Analysis 문창성 교수(경북대) |
15:30~16:00 | Break |
16:00~16:30 | Dark matter searches at CMS experiment 오영도 교수(경북대) |
16:30~17:00 | Scattering and Neutrino Detector at the LHC 이강영 교수(경상국립대) |
17:00~17:30 | Experimental Conditions for Determination of the Neutrino Mass Hierarchy with Reactor Antineutrinos 박명렬 교수(동신대) |
17:30~18:00 | Discussion |
Community - Machine Learning for HEP
심소영
- 박사후연구원
- 서울과학기술대학교
Self-supervised Quantum Metric Learning for High Energy jet physics
양자 메트릭 학습(Quantum Metric Learning)은 자기지도학습의 하나로 분류될 수 있다. 라벨링 되지 않은 정보를 큐빗에 반복해서 입력함으로써, 샘플 사이의 거리를 벌리는 방식으로 분류하고 학습할 수 있기 때문이다.
이 방법을 사용하여 LHC에서 투 힉스 더블렛 모델의 CP-odd scalar A가 Z보존과 힉스를 통해 젯으로 붕괴하는 프로세스의 시그널을 구분 할 수 있다. 유사하게, 고전적 대조학습 중에서 메트릭 학습 방법을 사용하는 것 중 하나인 SimCLR(A simple framework for contrastive learning of visual representation)과 비교될 수 있는데, 양자 메트릭 학습 방법과 성능을 비교해 본다.
Educational History
Employment History
Community - Machine Learning for HEP
고병원 (Ko, Pyungwon)
- 교수
- 고등과학원(KIAS)
Muon g-2 and thermal WIMP DM in $U(1)_{L_\mu - L_\tau}$ Models
Educational History
Employment History
Community - Machine Learning for HEP
Minho SON
- Associate Professor
- KAIST
Axion dark matter from cosmic string network
We will talk about our efforts for numerically estimating the QCD axion dark matter abundance from the topological cosmic string network. Using various state-of-art lattice simulations including the Adaptive Mesh Refinement (AMR), we establish the recently discovered scaling solution and to derive the power law of the axion power spectrum.
We will describe the up-to-date status of the cosmic string simulation and existing issues, and finally will present some of our results.
Educational History
Community - Machine Learning for HEP
이종완
- 선임연구원
- 기초과학연구원
Composite BSM models on the lattice
In this talk, I want to discuss recent lattice efforts on the non-perturbative studies of strongly coupled gauge theories other than QCD towards phenomenological model buildings for physics beyond the standard model.
Particular emphases are on the light scalar state, identified as a dilaton, in many-flavor QCD and on the baryonic states composed of fermion constituents in the two different representations, called chimera baryons.
Educational History
Employment History
Community - Machine Learning for HEP
송영호
- 연구원
- 기초과학연구원
Towards the dripline: Nuclear Lattice Effective Field Theory approach
Nuclear Lattice Effective Filed Theory is an ab-initio approach for the many-body quantum system. To apply the Nuclear Lattice Effective Field Theory with higher order interactions in Chiral Effective Theory to neutron rich nuclei, new method called Wave Function Matching is developed. The WFM method is applied for the binding energy of light nuclei, medium-mass nuclei, neutron matter and nuclear matter and charge radius of light and medium-mass nuclei. We use interactions at Next-to-next-to-next-to-leading order in chiral effective theory and find good agreement with empirical data.
Educational History
Employment History
Community - Machine Learning for HEP
이재원
- 부교수
- 중원대 전기전자공학과
Numerical simulations with Ultra-light dark matter
Ultra-light (fuzzy) dark matter is a promising alternative to the cold dark matter (CDM) model, as it has the potential to solve some of the small-scale issues of CDM. However, the wave nature of fuzzy dark matter makes it challenging to simulate cosmic structure formation, especially on scales larger than galaxies. In this talk, we review various public packages that can be used to simulate fuzzy dark matter, such as Axionyx, Enzo, and GRChombo for large scale structures. As an example, we numerically show that fuzzy dark matter can solve the final parsec problem of binary supermassive black holes.
Educational History
Employment History
Community - Machine Learning for HEP
김용규
- 대학원생
- 연세대학교 물리학과
Searches for dark sector phenomena at Belle II
Belle II is an experiment of colliding energy-asymmetric e+ e- beams using SuperKEKB collider and Belle II detector. While the focus of Belle II experiment is on flavor physics and CP violations, e.g. in B, D mesons and $\tau$ leptons, Belle II is also poised to searching for physics signals of dark sector in the light-mass regime of around a few GeV or less.
In this talk, we present recent dark-sector-related studies from Belle II, in which both continuum processes as well as B decay processes are studied.
Educational History
Employment History
Community - Machine Learning for HEP
Chang-Seong Moon
- Associate Professor
- Kyungpook National University
Machine Learning Technique for High Energy Physics Data Analysis
The search for dark matter with the CMS detector has been performed at CERN LHC. If dark matter particles are produced at the LHC, they would escape the detectors without being directly detected. This presence can be inferred by measuring an imbalance in the transverse energy after the proton-proton collision. Therefore, one of the methods employed at the CMS experiment to search for dark matter is by studying missing transverse energy (MET).
We present an improvement of the MET resolution using transformer architecture for regression based on the self-attention mechanism.
Educational History
Employment History
Community - Machine Learning for HEP
오영도
- 연구초빙교수
- 경북대학교
Dark matter searches at CMS experiment
우주를 구성하는 물질의 대부분을 차지하고 있는 암흑물질(~25 %) 및 암흑에너지(~70 %)를 탐색하는 것은 21세기 물리학 연구의 주요 과제 중의 하나이다. 현재 지하 실험을 통하여 암흑물질을 직접 검출을 시도하는 연구가 많이 수행되고 있으며, Large Hadron Collider(LHC)과 같은 가속기 실험에서는 고에너지 빔의 충돌에 의하여 생성될 수 있는 암흑물질을 탐색하는 연구가 진행되고 있다.
LHC는 2010년 이후 RUN1과 RUN2를 거쳐 2022년부터는 13.6 TeV의 에너지에서 RUN3를 가동하고 있다. LHC의 CMS 실험 그룹이 획득한 데이터를 분석하여 수행한 암흑물질 탐색의 연구 결과를 소개하고 향후 전망에 대하여 발표한다.
Educational History
Employment History
Community - Machine Learning for HEP
이강영
- 교수
- 경상국립대학교
Scattering and Neutrino Detector at the LHC
SND@LHC is a compact and stand-alone experiment to perform measurements with neutrinos produced at the LHC in a hitherto unexplored pseudo-rapidity region of 7.2 < 𝜂 < 8.6, complementary to all the other experiments at the LHC. The experiment is located 480 m downstream of IP1 in the unused TI18 tunnel. The detector is composed of a hybrid system based on an 800 kg target mass of tungsten plates, interleaved with emulsion and electronic trackers, followed downstream by a calorimeter and a muon system. The configuration allows efficiently distinguishing between all three neutrino flavours, opening a unique opportunity to probe physics of heavy flavour production at the LHC in the region that is not accessible to ATLAS, CMS and LHCb. This region is of particular interest also for future circular colliders and for predictions of very high-energy atmospheric neutrinos. The detector concept is also well suited to searching for Feebly Interacting Particles via signatures of scattering in the detector target. The first phase aims at operating the detector throughout LHC Run 3 to collect a total of 290 fb−1. The experiment was recently installed in the TI18 tunnel at CERN and has seen its first data. A new era of collider neutrino physics is just starting.
Educational History
Community - Machine Learning for HEP
박명렬
- 교수
- 동신대학교
Experimental Conditions for Determination of the Neutrino Mass Hierarchy with Reactor Antineutrinos
We report the optimized experimental requirements to determine neutrino mass hierarchy using electron antineutrinos ( ν¯e ) generated in a nuclear reactor. The features of the neutrino mass hierarchy can be extracted from the |Δm312| and |Δm322| oscillations by applying the Fourier sine and cosine transforms to the L/E spectrum. To determine the neutrino mass hierarchy above 90% probability, the requirements on the energy resolution as a function of the baseline are studied at sin22θ13=0.1 . Suppose the energy resolution of the neutrino detector is less than 0.04/Eν and the determination probability obtained from Bayes' theorem is above 90%. In that case, the detector needs to be located around 48–53 km from the reactor(s) to measure the energy spectrum of ν¯e . These results will help set up an experiment to determine the neutrino mass hierarchy, a critical problem in neutrino physics.
Community 2 - 공학분야 오픈소스 소프트웨어 활성화 (거문고 A) | |
|
|
Time | Program |
10:20~10:30 | 주요 공학분야 오픈 소스 소프트웨어 분류 및 특징 윤태호 팀장(KISTI 국가슈퍼컴퓨팅본부전략팀) |
10:30~11:00 | 최신 오픈 소스 동향 및 이슈 그리고 ETRI 대응 활동 이승윤 센터장(ETRI 오픈소스센터) |
11:00~11:30 | SIESTA 프로그램 및 이를 활용한 나노소재 전사모사 연구 소개 이정훈 박사(KIST 계산과학연구센터) |
11:30~12:00 | OpenFOAM 국내외 현황 및 활용 방안(기계분야) 오광호 차장(넥스트폼) |
12:00~12:30 | 멀티스케일 LAMMPS 오픈 소스 소프트웨어의 구조와 활용(에너지/자원 분야) 임형규 교수(강원대) |
12:30~13:30 | Luncheon |
13:30~14:00 | Unveiling the Power of Quantum Espresso in Electronic Materials 김도현 교수(고려대) |
14:00~14:30 | GROMACS 프로그램을 활용한 화학공학 분야 연구 사례 및 프로그램 소개 고은민 책임연구원(CTCK) |
14:30~15:00 | Scientific computing을 위한 응용SW 개발 추진 정책 최윤근 책임연구원(KISTI 과학데이터교육센터) |
15:00~15:10 | 마무리 전체 |
Community - 공학분야 오픈소스 소프트웨어 활성화
윤태호
- 책임연구원
- 한국과학기술정보연구원 국가슈퍼컴퓨팅본부전략팀
주요 공학분야 오픈 소스 소프트웨어 분류 및 특징
공학분야 오픈 소스 소프트웨어는 중요 계산 인프라이지만 전체 오픈 소스 소프트웨어 분류에서 볼 때 다루어지는 비중이 낮다.
과학기술표준분류체계의 공학분야별 선호 오픈 소스 소프트웨어로의 구분은 어렵지만, 원자, 분자 등 물질에 대한 나노, 마이크로, 매크로 스케일 등의 분류로는 적절하다. 본 발표에서는 인공물의 기준인 공학분야에 한정해 오픈 소스 소프트웨어의 분류 및 특징을 간단히 소개한다.
Educational History
Employment History
Community - 공학분야 오픈소스 소프트웨어 활성화
이승윤
- 센터장
- ETRI 오픈소스센터
최신 오픈소스 동향 및 이슈 그리고 ETRI 대응 활동
최근 디지털 전환 시대를 맞아 빠른 ICT 기술발전과 다양한 산업과의 융복합은 오픈소스를 통해 이루어지고 있다. 특히, 오픈소스SW는 개방형 혁신을 위한 도구로서 대부분의 ICT 분야에서 소프트웨어 개발을 주도하고 있으며, 반도체 칩 등 하드웨어 분야로도 확대되고 있는 등 앞으로 더 많은 분야에서 혁신을 이끌 것으로 예상한다. 하지만 오픈소스의 활용 비중이 늘어나는 만큼 SW개발시 고려해야 할 사항이 많아지고 있으며, 기업 및 기관 등 조직 차원에서 오픈소스 컴플라이언스를 포함한 거버넌스 대응이 더욱 중요해지고 있다.
특히, 과거 라이선스 검증이나 보안취약점 검사를 넘어 SW의 공급망관리 차원에서 오픈소스 대응이 중요한 이슈로 등장하고 있다. 이러한 환경 변화속에서 ETRI는 출연연 최초로 자체적인 오픈소스 거버넌스 대응 체계를 구축하고 개방형 R&D 혁신을 추진하고 있다.
Educational History
Employment History
Community - 공학분야 오픈소스 소프트웨어 활성화
이정훈
- 책임연구원
- KIST 계산과학연구센터
SIESTA 프로그램 및 이를 활용한 나노소재 전사모사 연구 소개
SIESTA는 소재의 전자구조와 분자동역학 시뮬레이션을 제일원리 기반으로 계산할 수 있는 오픈 소스 소프트웨어이다. 특히, SIESTA는 국소화된 원자 오비탈(localized atomic orbital)을 basis로 사용하기 때문에 평면파(plane wave)를 basis로 사용하는 다른 제일원리계산 소프트웨어에 비해 계산 속도가 월등히 빠른 것이 특징이다. 이로 인해 수백개에서 수천개 이상의 원자로 구성된 나노구조의 물성을 예측하고 분석하는데 특화되어 있는 제일원리 소프트웨어이다.
본 포럼에서는 SIESTA 프로그램 구성과 이를 활용하여 수행된 나노소재관련 전산모사 연구 사례를 구체적으로 소개하고자 한다.
Educational History
Employment History
Community - 공학분야 오픈소스 소프트웨어 활성화
오광호
- 책임연구원
- ㈜넥스트폼
OpenFOAM 국내외 현황 및 활용 방안
1. CAE와 CFD란?
2. 오픈소스 CFD 라이브러리 OpenFOAM
3. OpenFOAM 국내외 현황
4. 넥스트폼 소개
5. OpenFOAM 활용 방안
6. OpenFOAM 패키지 S/W 소개
7. HPC와 OpenFOAM
8. 디지털전환에서의 OpenFOAM 활용 연구들
CAE에서 CFD는 컴퓨터의 발달에 힘입어 그 활용도가 계속 증가하고 있다. 기계공한 분야 특히 제조업 중심으로 제품 성능 개선이나 신제품 설계에 CFD 시뮬레이션은 이제 필수적으로 사용되고 있다. CFD는 주로 외산 상용코드를 사용하고 있지만 공개된 코드를 이용한 연구 및 개발도 이루어지고 있다. 20여년 전에 공개된 OpenFOAM은 전 세계에서 가장 많은 사용자 층을 확보하고 있는 CFD 코드이다. 코드가 공개된 장점으로 사용자가 직접 코드 수정 및 배포가 가능하며 타 시뮬레이션 코드와의 연계도 활발히 진행중이다. 국내외에서 OpenFOAM을 이용한 연구 및 개발 사례에 대한 이야기와 함께 디지털전환과 관련한 연구사례 및 HPC에서의 OpenFOAM 활용에 대한 이야기를 하고자 한다.
Educational History
Employment History
Community - 공학분야 오픈소스 소프트웨어 활성화
임형규
- 교수
- 강원대학교 화공|생물공학부
멀티스케일 LAMMPS 오픈소스 소프트웨어의 구조와 활용
Large-scale Atomic/Molecular Massively Parallel Simulator (LAMMPS)는 원자/분자 수준에서부터 거시적 입자 수준까지 구성 물질들의 상호작용 에너지와 힘을 계산하여 시스템의 물리화학적 특성을 모델링 할 수 있는 오픈소스 소프트웨어로써, 에너지/자원 분야를 비롯한 다양한 공학 연구 및 엔지니어링 영역에서 활용되고 있다. 대규모 시스템의 모델링을 위해 CPU/GPU 기반 병렬 컴퓨팅 환경에서 높은 계산 효율을 갖도록 설계되었으며, 수 많은 역학 함수들과 사용자 정의 가능한 플러그인 아키텍처로 타겟 물질 시스템에서 분석하고자 하는 특성에 맞춰 커스터마이징 가능한 유연함을 특징으로 한다.
본 발표에서는 LAMMPS 소프트웨어의 기본 구조와 주요 모듈들에 대해 리뷰하고, 다양한 에너지/자원 분야 연구에 활용된 사례를 소개한다. 또한 LAMMPS 특정 모듈을 개발한 사례와 타겟 시스템에 적합한 고성능 병렬 컴퓨팅 환경 구축에 대한 정보를 제공하여 개별 프로젝트에 어떻게 적용할 수 있는지 이해를 도모하고자 한다.
Educational History
Employment History
Community - 공학분야 오픈소스 소프트웨어 활성화
김도현
- 연구교수
- 고려대학교 과학기술학연구소
Unveiling the Power of Quantum Espresso in Electronic Materials
Quantum Espresso는 화학, 재료 과학, 나노 과학 등 다양한 분야에서 재료의 전자 구조와 물리적 특성을 계산하기 위해 사용되는 오픈 소스 소프트웨어(open-source software)이다. Density functional theory(DFT)라는 이론을 기반으로 하며, 전자 구조 계산, 분자 동역학, 에너지 최적화 등 다양한 계산 작업을 수행할 수 있다. 따라서 Quantum Espresso를 이용하면 물질의 여러 가지 특성에 대한 이해를 향상시키고, 새로운 물질의 설계와 개발에도 도움을 줄 수 있다.
특히, 전자 재료의 분야에서 재료의 전자 밴드 구조 (electronic band structure), 페르미 에너지 준위 (Fermi energy level), 밴드 갭 (band gap) 등은 전자의 이동을 결정하는 중요한 요소로, 재료의 전기적 특성에 결정적인 영향을 미친다. Quantum Espresso는 이런 특성들을 계산할 수 있기 때문에 반도체 소자의 설계 및 성능 향상에 도움을 줄 수 있다.
이 발표에서는 Quantum Espresso를 사용하여 반도체 소자에 사용되는 재료의 전기적 특성을 계산하는 방법을 예제를 통해 설명하고, Quantum Espresso가 반도체 소자 연구에 어떻게 활용되는지에 대한 사례를 소개한다.
Educational History
Employment History
Community - 공학분야 오픈소스 소프트웨어 활성화
고은민 (Eun Min Go)
- 책임연구원
- Corning Technology Center Korea(CTCK)
GROMACS 프로그램을 활용한 화학공학 분야 연구 사례 및 프로그램 소개
GROMACS 프로그램은 소재의 물성 및 상호 기작 그리고 자기조립, 상변화, 흡/탈착 등을 포함한 현상연구에 활용이 가능하다. 특히 화학공학 분야에서는 고분자, 나노 복합체, 약물 전달 시스템 연구에 주로 활용되고 있다. 본 세션에서는 GROMACS 프로그램의 화학공학 분야 연구 활용 사례 그리고 프로그램의 구성 및 사용 방법을 소개하고자 한다.
GROMACS 프로그램은 biochemical 분야 MD simulation을 위해 개발된 무료 오픈소스 소프트웨어로 현재 2023버전까지 배포되었다. 프로그램의 접근성이 좋을 뿐만 아니라 계산속도의 최적화 및 수백만개 수준의 입자 계산이 가능하여 화학공학 및 생명공학 계산연구 분야에 주로 사용되고 있다. 또한, 프로그램 구동을 위해 필요한 명령어 및 옵션들이 체계적으로 정리되어 있고 제공되는 튜토리얼 및 input 파일들이 다양하여 초보자에게 진입장벽이 낮다.
Educational History
Employment History
Community - 공학분야 오픈소스 소프트웨어 활성화
최윤근
- 책임연구원
- 한국과학기술정보연구원 과학데이터교육센터
Scientific computing을 위한 응용SW 개발 추진 정책
관계부처 합동 “인재양성 정책 혁신방안(2021.11) 및 제3차 국가초고성능컴퓨팅 육성 기본계획(‘23-’27, 2023.5) 에 제시된 중장기적인 슈퍼컴퓨팅 육성 계획에 근거하여 추진 중인 『초고성능컴퓨팅 SW 생태계조성』사업을 소개하고 향후 SW 개발 발전 방향에 대해 논의함
Educational History
Employment History
Community 3 - MyKSC (KISTI 슈퍼컴퓨터 웹 서비스 포털) 소개 및 활용 사례 (해금 A) | |
|
|
Time | Program |
09:30~10:00 | MyKSC 소개 및 사용자 이미지 활용법 박주원 책임연구원(KISTI) |
10:00~10:30 | MyKSC 를 통한 Jupyter 활용 사례: PySpark 를 통한 빅데이터 처리 김은빈 책임연구원(SIA) |
10:30~10:50 | Break |
10:50~11:20 | MyKSC를 통한 RStudio 활용 사례: data.table과 gstat 패키지 사용 이소진 연구위원(서울연구원) |
11:20~11:40 | MyKSC를 통한 기상예측모델 수행 및 가시화 강지순 책임연구원(KISTI) |
11:40~12:00 | MyKSC를 통한 OpenFOAM/Code_Aster 활용 사례 윤태호 책임연구원(KISTI) |
Community - MyKSC (KISTI 슈퍼컴퓨터 웹 서비스 포털) 소개 및 활용 사례
박주원
- 책임연구원
- 한국과학기술정보연구원 슈퍼컴퓨팅인프라센터 사용자서비스팀
MyKSC 소개 및 사용자 이미지 활용법
웹 기반의 GUI에 익숙한 일반 사용자에게 CLI 터미널 기반의 슈퍼컴퓨터 이용 환경은 슈퍼 컴퓨터 활용 확대를 저해하는 가장 큰 걸림돌이다. KISTI 슈퍼컴퓨팅인프라센터에서는 이러한 슈퍼컴퓨터 활용의 진입장벽을 낮추고 기존 HPC와 함께 머신러닝, 빅데이터 분석과 같은 다양한 분야에서도 슈퍼컴퓨터를 쉽게 활용할 수 있도록 MyKSC (국가센터 초고성능컴퓨팅 서비스 포털)을 개발하여 2023년 3월부터 서비스를 제공하고 있다. (https://my.ksc.re.kr)
본 발표에서는 MyKSC의 아키텍쳐 및 간단한 사용법을 소개하고자 한다. 특히, MyKSC는 사용자 맞춤형 서비스를 제공할 수 있도록 kubernetes 기반의 컨테이너 기술을 활용한 시스템으로 Docker 기반의 사용자 이미지를 MyKSC를 통해 실행할 수 있다. 그러므로 본 발표에서 간단한 시연을 통해 사용자 이미지 생성 방법과 이렇게 생성된 이미지를 MyKSC를 통해 실행하는 방법을 소개한다.
Educational History
Employment History
Community - MyKSC (KISTI 슈퍼컴퓨터 웹 서비스 포털) 소개 및 활용 사례
김은빈
- 책임연구원
- SI Analytics
Using PySpark to Analyze OCO-2 Satellite Data in Jupyter Notebook
The OCO-2 satellite is a NASA mission that measures the column-averaged concentration of CO2 in the atmosphere. The data collected by OCO-2 is a valuable resource for scientists studying climate change. This talk explains how to easily analyze OCO-2 satellite data in Jupyter Notebook using PySpark. PySpark is a powerful tool that can be used to efficiently process large data sets. In practice, we use PySpark to load OCO-2 data directly into a Spark DataFrame, perform basic data analysis, and visualize the results. It also describes the challenges of working with OCO-2 data and how to overcome them using PySpark. This talk is aimed at scientists and engineers interested in analyzing satellite data using PySpark. No prior experience with PySpark is required.
Educational History
Employment History
Community - MyKSC (KISTI 슈퍼컴퓨터 웹 서비스 포털) 소개 및 활용 사례
이소진
- 부연구위원
- 서울연구원
MyKSC를 통한 RStudio 활용 사례: data.table과 gstat 패키지 사용
MyKSC에서 Rstudio 활용 사례 공유 와 data.table 패키지를 통한 대용량 자료 처리, gstat 패키지를 활용한 Spatiotemporal kriging 튜토리얼 진행
Educational History
Employment History
Community - MyKSC (KISTI 슈퍼컴퓨터 웹 서비스 포털) 소개 및 활용 사례
윤태호
- 책임연구원
- 한국과학기술정보연구원 국가슈퍼컴퓨팅본부전략팀
MyKSC를 통한 OpenFOAM/Code_Aster 활용 사례
OpenFOAM/Code_Aster는 유럽(영국/프랑스)을 기반으로 활발한 개발이 이뤄지고 있는 오픈 소스 소프트웨어들로 주로 기계분야 등의 유동/구조해석을 위한 공학 시뮬레이션에서 많이 활용되고 있다. 코드 사용 또는 개작, 타 코드 모듈 연계 등 자유롭게 특화시킬 수 있기 때문에 전 세계 산학연의 많은 유저들이 지속적으로 유입되고 있다. 오픈 소스 소프트웨어는 모든 코드 개발자 및 사용자 간 활발한 교류가 특징으로, Code_Aster의 경우 한국과학기술정보연구원이 한국 서비스 멤버로 활동 중에 있다.
기존은 OpenFOAM/Code_Aster의 슈퍼컴퓨터 사용 시 계산만을 위한 전문가 작업에 효율적인 터미널 모드의 HPC 환경만을 이용하였다. 이제는 MyKSC를 통해 GUI 기반에서 HPC 계산 및 KISTIFoam/Salome/ParaView 등의 전·후처리기와 연동된 간편한 계산 준비 및 결과 확보·확인할 수 있게 되어 공학 시뮬레이션의 사용 편의성이 한층 높아졌다. 이와 관련해서 한국과학기술정보연구원에서는 슈퍼컴퓨터에서의 OpenFOAM/Code_Aster 활용 강의도 운영 중에 있다. 본 발표에서는 OpenFOAM/Code_Aster를 활용한 MyKSC 환경에서의 공학 시뮬레이션 활용 사례들을 소개하고자 한다.
Educational History
Employment History
Community - MyKSC (KISTI 슈퍼컴퓨터 웹 서비스 포털) 소개 및 활용 사례
강지순
- 책임연구원
- 한국과학기술정보연구원 슈퍼컴퓨팅인프라센터 사용자서비스팀
MyKSC를 통한 기상예측모델 수행 및 가시화
KISTI 슈퍼컴퓨터 누리온을 활용하여 전지구 및 지역규모 수치 기상예측모델을 수행할 때, 일반적으로 SSH-Client를 통해 접속하고 가시화를 위해 X 환경 실행(Xming을 따로 설치하여 실행)하는 등 슈퍼컴 사용 전 기본적으로 설정해야할 환경을 갖추기 위한 사전 작업이 일상적으로 필요했다. 그러나 myKSC 접속 하나로 위와 같은 환경 설정 과정들이 생략될 수 있고, 특히 사용자 불편 사항으로 자주 언급되는 OTP 비밀번호 입력 이슈(OTP 비밀번호 여러 번 입력해야할 경우, OTP 비밀번호 갱신 주기로 인한 불편)를 해결할 수 있게 되었다. 단 한 번의 OTP 비밀번호 입력으로 myKSC에 접속하면, myKSC 내에서 여러 개의 터미널 창을 띄우고 데이터 전송과 가시화 환경을 구동할 수 있어 myKSC의 활용성과 편의성을 체험할 수 있다.
본 발표에서는 기상예측수치모델링과 가시화 과정을 myKSC를 통해 수행하면서, myKSC의 웹터미널, 데이터 관리, 원격 데스크톱(VNC) 등의 사용 예시를 보여주고자 한다.
Educational History
Employment History
Community 4 - HPC Cloud(KISTI R&D Cloud Platform) (거문고 B) | |
|
|
Time | Program |
10:00~10:30 | KISTI R&D Cloud Platform 개발 현황 정기문 책임연구원(KISTI) |
10:30~11:00 | 클라우드 기반 HPC Task 수행을 위한 MLOps 요소기술 연구 허의남 교수(경희대) |
11:00~11:30 | Quantum AI Simulator using a hybrid cpu-fpga on KI Cloud 박동희 과장(SQK) |
11:30~12:00 | High-dimensional scientific computation optimization for DNA-Encoded Library (DEL) technology on KI Cloud 손영제 대표이사(SQK) |
12:00~13:30 | Luncheon |
13:30~14:00 | Super-parallel scheduling for spatial transcriptomics on KI Cloud 서성진 부장(SQK) |
14:00~14:30 | Implementing PAM to achieve the principles of zero trust 김규현 부장(하나ICT) |
Community - HPC Cloud(KISTI R&D Cloud Platform)
정기문
- 책임연구원
- 한국과학기술정보연구원
KISTI R&D Cloud Platform 개발 현황
KISTI에서는 전통적인 HPC 사용자 및 빅데이터, AI연구자 등이 다양한 R&D 연구를 수행할 수 있도록 클라우드 기반의 R&D 플랫폼 기술을 개발하고 있다.
해당 플랫폼은 Kubernetes로 오케스트레이션되는 Container를 이용하여 전통적인 병렬처리를 수행할 수 있는 플랫폼 및 다양한 어플리케이션을 수행할 수 있는 기능을 제공하고 있다.
이번 발표에서 현재 개발중인 R&D Cloud Platform의 구조 및 기능 등을 소개하고 향후 KISTI의 HPC 클라우드인 KI Cloud에 적용하여 구축하는 계획 등을 소개한다.
Educational History
Employment History
Community - HPC Cloud(KISTI R&D Cloud Platform)
허의남
- 교수
- 경희대학교
클라우드 기반 HPC Task 수행을 위한 MLOps 요소기술 연구
HPC Task 워크로드 기록 데이터셋 수집 및 메트릭 분석
- 컨테이너 기반 클러스터로 구성된 워크로드 기록 데이터 수집
- Alibaba Cluster Trace 2018 & 2021 / Google Cluster WorkloadTraces 2019 활용
- 자원 메트릭의 시계열 데이터 수집 및 통계화
- 할당된 자원들(cpu/gpu, mem, io등)사용 패턴 분석
수집된 자원들의 다변량분석을 위한 MLOps 기술연구
- 자원 간 피어슨 상관관계 분석을 위한 데이터 전처리 기술
- LSTM, ARIMA 등을 활용한 Task Allocation을 위한 학습 모델 개발
- 지식 증류(Knowledge Distillation) 기반 저지연 수행 기법 연구
Educational History
Employment History
Community - HPC Cloud(KISTI R&D Cloud Platform)
박동희
- 과장
- 에스큐케이
Quantum AI simulator using a hybrid cpu-fpga on KI CLOUD
KI Cloud에 적용하고자 하는 양자플랫폼은 여러 양자 기술 접근 방식( 게이트 기반, 양자 어닐링, 시뮬레이터 등 )과 다양한 양자 기술 제공업체의 제안을 통합해주는 편집 및 실행환경 서비스를 제공합니다.
양자 회로 또는 어닐링 정의를 시각적으로 설계하고 workflow파이프라인을 사용하여 완전한 알고리즘을 만들 수 있는 환경을 제공합니다.
우리는 본발표에서 이기종 CPU-FPGA 컴퓨팅에 의한 양자 커널 추정이 기존 CPU 구현보다 470배 더 빠르다는 결론을 보여드리려고 합니다. 애플리케이션별 양자 커널의 공동 설계와 효율적인 FPGA 구현을 통해 최대 780차원 기능의 기능 측면에서 게이트 기반 양자 커널의 가장 큰 수치 시뮬레이션 중 하나를 수행할 수 있었습니다.
Educational History
Employment History
Community - HPC Cloud(KISTI R&D Cloud Platform)
손영제
- 대표이사
- 에스큐케이
High-dimensional scientific computation optimization for DNA-Encoded Library (DEL) technology on KI Cloud
KI CLOUD HPC 플랫폼은 고성능 컴퓨팅(HPC) 환경, 클라우드 서비스 또는 개인 워크스테이션에서 PyTorch, TensorFlow, TorchANI 등 AI 기반 워크로드를 가속화 하는데 사용됩니다.
이번 발표에서 우리는 KI CLOUD HPC 클라우드플랫폼을 활용하여 딥러닝을 통한 DNA분석과정을 소개해드리려고 합니다.
DNA 인코딩 라이브러리(DEL)는 제약 산업에서 널리 채택된 강력한 리간드 발견 기술입니다. 최근 DEL은 살아있는 세포의 막 단백질과 같은 복잡한 생물학적 환경에서 표적을 조사하는 데에도 사용하려는 시도가 많지만 세포 표면의 복잡한 지형으로 인해 선택에는 필연적으로 중요한 비특이적 상호 작용이 포함되며 선택 데이터는 정제된 단백질이 있는 데이터보다 훨씬 노이즈가 많아 신뢰할 수 있는 적중 식별이 매우 어려운 상황입니다. 우리는 MAP(Maximum A Postiori) 추정 손실 함수를 사용하여 셀 기반 DEL 선택 데이터 세트를 처리하는 새로운 기계 학습(ML) 기반 접근 방식을 도입하고 노이즈 데이터의 불확실성을 정량화하였습니다. MAP 손실 함수를 사용하는 ECFP(Extended-Connectivity Fingerprint) 기반 회귀 모델은 잡음이 많은 셀 기반 선택 데이터 세트에서 진정한 바인더와 신뢰할 수 있는 SAR(구조 활동 관계)을 식별할 수 있었습니다.
Educational History
Employment History
Community - HPC Cloud(KISTI R&D Cloud Platform)
서성진
- 부장
- 에스큐케이
Super-parallel scheduling for spatial transcriptomics on KI Cloud
SCIaaS는 KI Cloud에서 제공하는 웹 기반 데이터 처리 및 분석 플랫폼으로입니다. 재현 가능한 결과를 향상시키기 위해 광범위한 수정 및 대화형 보고를 통해 복잡한 Nextflow, WDL 파이프라인을 생성, 배포, 공유 및 실행할 수 있습니다.
우리는 공간전사체분석같은 중요한 바이오프로젝트에서 SCIaaS를 어떻게 활용하는지 소개해드리려고 합니다.
차세대 시퀀싱(NGS)과 같은 방대한 양의 게놈 데이터를 생성하는 고처리량 기술의 출현은 생물학적 연구를 변화시키고 있습니다. 데이터 양의 급격한 증가, 데이터 처리 도구, 알고리즘 및 데이터베이스의 다양성 및 지속적인 변화로 인해 분석은 과학적 발견의 주요 장애물이 되었습니다.
공간 전사체학은 공간적 국소화 정보로 조직에서 전사체 프로파일링을 가능하게 하는 게놈 기술 모음입니다. 공간 transcriptomic 데이터를 분석하는 것은 다양한 공간 transcriptomic 기술에서 수집된 데이터가 종종 잡음이 많고 조직 위치에 걸쳐 상당한 공간 상관 관계를 표시하기 때문에 계산적으로 어렵습니다.
Educational History
Employment History
Community - HPC Cloud(KISTI R&D Cloud Platform)
김규현
- 부장
- 하나ICT
Implementing PAM to achieve the principles of zero trust
KI CLOUD는 응용 프로그램이 보안 수준이 높고 격리된 환경에서 네트워크의 권한 있는 사용자의 자격 증명을 저장 및 저장하고 이러한 사용자 계정이 항상 제어되도록 하는 PAM을 제공합니다.
우리는 본 발표에서 PAM(Privileged Access Management)이 제로 트러스트 (Zero Trust)모델 내에서 비즈니스의 IT 팀을 최적으로 구성하고 보안을 강화하는지 소개해드리려고 합니다.
중요한 데이터에 액세스하고 조치를 취하는 프로세스는 가장 중요한 데이터 보안 측면 중 하나이며 비즈니스 효율성을 높여줍니다. 접근을 요청하는 사용자의 활동을 지속적으로 기록하고, 사용자가 요구 조건을 충족하는 경우에만 접근 권한을 부여합니다. 제로 트러스트(Zero Trust)는 네트워크에서 사용자/계정 권한 또는 권한이 최소화되고 액세스가 통제된 방식으로 관리되며 활동이 기록되는 모델입니다. 이로 인해 네트워크에서 사용자의 활동을 감사하고 이해하기 위한 자동화된 시스템이 필요합니다.
Educational History
Employment History
Community 5 - 슈퍼컴퓨터와 머신러닝의 만남 (거문고 C) | |
|
|
Time | Program |
13:30~13:35 | 개회 |
13:35~14:00 | 유동 박리 예측을 위한 머신 러닝을 활용한 난류 모델링 지솔근 교수(GIST) |
14:00~14:25 | Development of deep-learning-based precipitation prediction model using meteorological satellite images 최예지 부문장(SIA) |
14:25~14:50 | Artificial Discovery and Design of Porous Materials 김지한 박사(KAIST) |
14:50~15:15 | Applications of Deep Learning-Based Denoising Methodologies for Scanning Electron Microscope Images 신설은 책임연구원(한국표준과학연구원) |
15:15~15:40 | Developing an AI Model for Protein Interaction Prediction using HPC system 백민경 교수(서울대학교) |
15:40~16:00 | Break |
16:00~16:25 | 과학기술문헌 활용을 위한 멀티모달 생성 언어 모델 김은희 선임연구원(KISTI) |
16:25~16:50 | AI + Graph = AGI? Graph Neural Networks in the AGI era 김현우 교수(고려대학교) |
16:50~17:15 | 초고성능 컴퓨팅 및 딥러닝 기반 신약 후보물질 가상탐색 김우연 교수(KAIST) |
17:15~17:30 | 폐회 |
Community - 슈퍼컴퓨터와 머신러닝의 만남
지솔근
- 교수
- 광주과학기술원(GIST) 기계공학부
유동 박리 예측을 위한 머신 러닝을 활용한 난류 모델링
It is challenging to predict turbulent flow. The nature of separated flow particularly imposes tremendous difficulty on current turbulence models for predicting accurately turbulent flow around aircraft and ground-based vehicles.
In this talk, I will introduce my group effort on turbulence modeling assisted with machine learning technique. We optimize a well-known turbulence model and train the optimized model with general flow features. Significant improvement of the model prediction capability is demonstrated in several cases of separated flow. Based on my group activity, it can be conjectured that the machine-learning-assisted modeling could be expanded furthermore for various turbulent flow encountered in mechanical and aerospace engineering fields.
Educational History
Employment History
Community - 슈퍼컴퓨터와 머신러닝의 만남
최예지
- 부문장
- ㈜에스아이에이 지구정보사업부
Development of deep-learning-based precipitation prediction model using meteorological satellite images
Geostationary satellite imagery is a valuable resource for weather forecasting and monitoring as it provides a continuous view of weather systems and atmospheric conditions over a wide area. Recent advancements in deep learning techniques have enabled the use of satellite images as input data for training and validating deep learning models. SI-Analytics has developed a deep-learning-based precipitation forecasting model called SIA-Net (Simple Baseline for Weather Forecasting Using a Spatiotemporal Context Aggregation Network).
SIA-Net has achieved state-of-the-art performance in four out of five benchmarks of the W4C'22 competition. It is a simple yet effective model architecture that leverages satellite images and convolutional neural networks (CNNs) in an end-to-end manner, without relying on multi-model ensembles or fine-tuning. The key component of SIA-Net is the large spatial context aggregation module, which serves as a basic building block. This module incorporates decomposition technology, a recent learning approach, and pure 3D-CNN (Convolutional Neural Network) techniques.
The simplicity of SIA-Net makes it a robust baseline model that can be easily applied to weather forecasting tasks using deep learning techniques. By utilizing satellite imagery and the proposed architecture, SI-Analytics aims to enhance precipitation forecasting capabilities and contribute to advancements in weather prediction and monitoring.
Educational History
Employment History
Community - 슈퍼컴퓨터와 머신러닝의 만남
김지한
- 박사
- 한국과학기술원(KAIST) 생명화학공학과
Artificial Discovery and Design of Porous Materials
Nanoporous materials include zeolites metal-organic frameworks, and porous polymers and they possess pores on the order of few Angstroms to nanometers and due to their high tunability and facile synthesis, they are deployed in various energy and environmental related applications including gas storage, separation, catalysis, and drug delivery. In this talk, I will explore the paths of designing and discovering novel porous materials using various machine learning techniques.
Specifically, I will talk about developments made in our GAN and diffusion model tools used to create zeolites using deep learning and some of the other implementations. With regards to designing MOFs, the modular nature of the structures is taken to facilitate input representation and with incorporating inverse design, we were able to identify many different MOFs with record breaking properties in various different applications.
Moreover, we have built towards universal transfer learning to predict various properties of the MOFs in our MOFTransformer architecture. Finally, we take a look at some of the examples in utilizing the LLM technologies to facilitate conversation between the user and the simulation tools.
Educational History
Employment History
Community - 슈퍼컴퓨터와 머신러닝의 만남
신설은 (Seoleun Shin)
- 책임연구원
- 한국표준과학연구원
Applications of Deep Learning-Based Denoising Methodologies for Scanning Electron Microscope Images
Scanning Electron Microscope (SEM) is an instrument to generate magnified images of a microscopic-scale sample by detecting signals resulted from interactions between the electronic beams and the sample. Denoising of SEM images is an important task since the images often suffer from noise, which can make it difficult to accurately interpret the data. We use four types of deep-learning algorithms for denoising SEM images and discuss their potentials and limitations. Deep learning-based methods show great potentials in producing high-quality images and have overcome some obstacles, even though it may not always preserve or restore fine details and texture. In the denoising process of SEM images, it is crucial to be aware of and quantify uncertainties, just like in the scanning process itself.
To address this, we use several metrics to quantify the gap between the original clean images and denoised ones, and also incorporate a probabilistic approach to understand such distances. It is anticipated that deep-learning based denoising technique can also be applied to various areas of image analysis.
Educational History
Employment History
Community - 슈퍼컴퓨터와 머신러닝의 만남
백민경
- 교수
- 서울대학교 생명과학부
Developing an AI Model for Protein Interaction Prediction using HPC system
Proteins are large biomolecules that play critical roles in essentially all biological processes. Predicting protein’s structure and its interactions is very important to understand protein’s function. With the increase in bio big data, data-driven approaches using artificial intelligence (AI) techniques have made considerable progress in protein structure and interaction prediction. The AI-based protein modeling method changed a framework of protein research, and it opened a new era in Digital Biology.
In this talk, I'll present an AI-based protein structure prediction method, RoseTTAFold, and its utilization to study interactions between proteins and protein-nucleic acids. RoseTTAFold enables rapid generation of accurate protein tertiary and quaternary structures from sequence information alone, reducing computational cost of traditional approaches such as template-based modeling and docking approaches.
Educational History
Employment History
Community - 슈퍼컴퓨터와 머신러닝의 만남
김우연
- 교수
- 한국과학기술원(KAIST) 화학과
초고성능 컴퓨팅 및 딥러닝 기반 신약 후보물질 가상탐색
신약개발의 효율성을 높이기 위해 컴퓨터 기반 약물 설계 (Computer-Aided Drug Design; CADD) 방법이 활용되어 왔다. 특히 신약개발 초기 단계에 신규한 유효물질을 발굴하는 단계에서 대량의 화합물 라이브러리를 대상으로 한 가상탐색에 주로 활용되어 왔다. 하지만 물리화학에 기반한 기존 CADD 방법은 예측의 정확도와 속도가 서로 trade-off 관계에 있어 높은 정확도로 가상탐색을 수행하기 위해 많은 계산 비용이 발생한다. 최근 딥러닝을 중심으로 한 인공지능 기술이 발전하면서 정확도와 속도를 동시에 높일 수 있는 접근 방법이 주목받고 있다.
본 연구에서는 신약 후보물질 가상탐색을 중심으로 최근 딥러닝 활용 연구를 사용하고, 초고성능 컴퓨팅 기술과 결합 했을 때 기대할 수 있는 점을 논의하고자 한다.
Educational History
Employment History
Community - 슈퍼컴퓨터와 머신러닝의 만남
김현우
- 교수, 학과장
- 고려대학교 컴퓨터학과
AI + Graph = AGI? Graph Neural Networks in the AGI era
본 강연에서는 그래프를 다루기 위한 딥러닝 기법인 그래프 인공신경망을 소개한다.
다양한 종류의 노드 및 간선을 갖는 이종그래프(heterogeneous graphs)를 효과적이고 효율적으로 다루기 위한 기법을 소개한다. 또한 그래프 인공신경망을 활용한 다양한 응용을 소개한다. 이는 고수준 장면이해(High-level scene understanding), 언어모델 및 지식그래프 기반 질의응답시스템(QA), 속성 비교 학습(Relative attribute learning), 데이터 증강 기법(Data Augmentation), 생성 모델(Generative AI) 등을 포함한다.
마지막으로 초거대 범용 인공지능(Artificial General Intelligence, AGI) 시대에 그래프 인공신경망 연구방향에 대해 논의한다.
Educational History
Employment History
Community - 슈퍼컴퓨터와 머신러닝의 만남
김은희
- 선임연구원
- 한국과학기술정보연구원(KISTI)
과학기술문헌 활용을 위한 멀티모달 생성 언어 모델
최근 ChatGPT가 일반 대중을 향한 언어 모델 서비스를 시작하면서, 인공 지능 기술의 관심은 알파고의 영향력의 임계치를 넘어서고 있다. 최근 GPT-4를 통해 멀티모달 언어 모델의 생활 속 서비스 가능성을 엿볼 수 있다.
본 톡을 통해서는 먼저 과학 기술 문헌을 활용하여 멀티모달 언어 모델을 기반으로 한 서비스들을 생각한다. 텍스트 외의 비정형 데이터인 표, 그림을 포함하는 문헌을 기반으로 한 요약, 질의응답 및 과학 기술 정책 생성 서비스 등을 예상해볼 수 있다.
이러한 서비스를 목적으로 진행 중인 COT(Chain-of-thought) 기반의 표 문헌 질의응답 데이터 구축과 언어 모델을 통한 성능 개선 과정을 설명한다. 또한 과학 기술 문헌 기반 멀티모달 언어 모델 서비스를 가능하게 할 문헌 데이터들과 태스크들, 공개 데이터들, 그리고 관련 언어 모델들의 최근 동향을 살펴본다.
이미지, 텍스트와 문서의 레이아웃을 기본으로 언어 모델 벤치마크를 제시하고 있는 마이크로소프트의 언어 모델들, 문헌들을 PDF 기반으로 이미지 처리하여 비전 기반의 언어 모델을 구축하고 있는 구글의 언어 모델, 그리고 표, 그림의 태스크에서 SOTA(State-of-the-Art)인 MATCHA 모델 등을 다룬다.
향후 본원(KISTI)에서 준비해갈 멀티모달 언어 모델의 준비 내용으로 마무리 짓는다.
Educational History
Employment History
Community 6 - KSCSE 2023 Autumn Conference (비파) | |
|
|
Time | Program |
10:00~10:30 | Numerical Studies for Black Hole Encounters 강궁원 교수(중앙대학교) |
10:30~11:00 | Approximation Methods for Integrals and Differential Equations Using Mathematica and the Add-on Package MathSymbolica 정영주 교수(광주과기원) |
11:00~11:30 | Computational Investigation on Quantum Information Processing using Silicon Quantum Dot Platform 강지훈 책임연구원(KISTI) |
11:30~12:00 | Absorption Wavelength of All-trans-Retinal Investigated byTime-Dependent Density Functional Theory 이명원 교수(부경대학교) |
12:00~13:00 | Luncheon |
13:00~13:25 | 면역세포 DNA변형에 따른 만성염증성 질환과 치료제 개발 선충현 연구소장(지놈오피니언) |
13:25~13:50 | Transcriptome-based Drug Discovery using AI 전민지 교수(고려대학교) |
13:50~14:15 | 문자열 기반 생성 모델을 이용한 신약 개발 한혜림 매니저(미디어젠) |
14:15~14:40 | Integrative Analysis of Human Protein Sequences, 3D Structures, and Chemical Information: for the Discovery of GPCR Ligands 이윤지 교수(중앙대학교) |
14:40~15:05 | Protein-Ligand Binding Affinity Prediction According to Drug Discovery Stage 이진희 책임연구원(일동제약) |
15:05~15:30 | Break |
15:30~16:00 | 시뮬레이션과 인공지능 기반 산업용 로봇 예지보전 기술개발에 대한 연구 김남규 책임연구원(KISTI) |
16:00~16:30 | Molecular Design of Advanced Polymers Through Computational Modeling and Machine Learning 이용진 교수(인하대학교) |
16:30~17:00 | Towards Application of Supercomputing in Predicting Drug-induced Liver Toxicity: Utilizing Graph Mining Techniques in Artificial Intelligence Models 임상수 교수(동국대학교) |
17:00~17:30 | The Challenges of Explainable AI in Medical Data Science 김재호 교수(성균관대학교) |
18:00~19:30 | Dinner |
Community - 한국계산과학공학회 2023년도 추계학술대회
강궁원 (Gungwon Kang)
- 교수
- 중앙대학교 물리학과
Numerical Studies for Black Hole encounters
Black hole binary mergers have been playing an important role in exploring a new world seen by gravitational waves. Gravitational wave events from non-circular mergers or black hole encounters in general are expected to be observed as the sensitivity of current detectors are improved at low frequencies.
In this talk, we present some of the main results in numerical studies for dynamical black hole captures, highly eccentric encounters and extremly close encounters of two black holes.
Educational History
Employment History
Community - 한국계산과학공학회 2023년도 추계학술대회
정영주 (Youngjoo Chung)
- 교수
- 광주과학기술원(GIST)
Approximation Methods for Integrals and Differential Equations Using Mathematica and the Add-on Package MathSymbolica
Symbolic computation enables manipulation and evaluation of mathematical expressions using computer software incorporating known algorithms and mathematical formulas. Automated formula manipulation dramatically improves the capability for analytic calculation and allows analytic modeling of more realistic problems with minimal effort. It can easily overcome the difficulty encountered in tedious, boring, time-consuming and error-prone hand-written calculation for handling long mathematical expressions, which becomes quickly intractable as the complexity grows. MathSymbolica is an add-on package that facilitates symbolic computation in Mathematica. It contains over 1,100 functions for notation, manipulation and evaluation of various mathematical expressions. It has several features for compactness and versatility to handle complex problems that are not directly solvable with the built-in Mathematica kernel functions.
This presentation will discuss the key features of the package and its application to approximation methods for integrals and differential equations. Particularly, we will discuss asymptotic expansion of integrals and perturbation, boundary-layer and WKB theories for solution of differential equations.
Educational History
Employment History
Community - 한국계산과학공학회 2023년도 추계학술대회
강지훈
- 책임연구원
- 한국과학기술정보연구원
Computational investigation on quantum information processing using silicon quantum dot platform
We present a computational exploration on the behaviors of quantum bits (qubits) encoded in electron spins within electrode-driven silicon (Si) quantum dots (QD). With the aids of our in-house code taking a multi-scaling method that combines bulk physics modeling and electronic structure calculations, time-transient behaviors of spin-qubits are simulated as well as QD device electrostatics.
The focus of this presentation is on the functionality of spin-qubits in Si QD platforms for quantum logic gates. We thoroughly discuss the effects of material-inherent charge-noise and inevitable design inaccuracy on the performance of logic operations, followed by device engineering based on computer-aided-engineering to enhance gate performance. These improvements include modifying control signals to enhance noise-robustness of two-qubit entangling operations and optimizing physical designs to improve the performance of logic gates using Bayesian optimization.
Our latest efforts in qubit scaling are also introduced, where we simulate quantum information processing on up to 5 QD structures with individual 1-qubit and entangling 2-qubit operations.
Educational History
Community - 한국계산과학공학회 2023년도 추계학술대회
이명원 (Myung Won Lee)
- 부교수
- 부경대학교 과학컴퓨팅학과
Absorption Wavelength of All-trans-Retinal Investigated byTime-Dependent Density Functional Theory
Retinal embedded in protein functions as a chromophore whose absorption wavelength is modulated considerably through protein-chromophore interactions. It is the key component for animal vision and plays an important role in converting light to metabolic energy in certain microorganisms.
In the present investigation, we used time-dependent density functional theory (TDDFT) to compute the absorption wavelength of all-trans-retinal in the form of protonated Schiff base under various conditions and show that electrostatic interactions are important in modulating the absorption wavelength, whereas structural change also affects the absorption wavelength to some extent.
Educational History
Employment History
Community - 한국계산과학공학회 2023년도 추계학술대회
선충현 (Choong Hyun Sun)
- 기업부설연구소장
- ㈜지놈오피니언
면역세포 DNA변형에 따른 만성염증성 질환과 치료제 개발
선진사회일수록 인구고령화로 인한 다양한 심뇌혈관 등 만성염증성 질환들이 암에 이어 가장 많은 질환을 차지하고 있다. 인간 유전체 데이터가 대규모 축적되었고 이를 대단위 분석한 결과 60세 이상 건강인들의 면역세포들에서조차 암세포에서 가장 빈번하게 발견되는 유전자의 DNA 체세포서열변이가 동일하게 발견된다는 사실을 발견했습니다. 이 서열변이를 보유한 면역세포들은 혈관, 장기, 뇌, 안구 조직으로 침투해 들어가서 염증성 사이토카인 과분비를 유발하고 이를 시점으로 다양한 만성염증성 질환의 발병 및 중증화를 유발합니다. 이 과염증 반응의 효과적 억제는 다양한 만성염증성 질환의 치료 및 예방 기회를 제공할 수 있습니다.
본 발표에서는 면역세포에서 체세포 서열변이를 탐색하고 이에 대한 치료제 개발 방법에 대한 소개합니다.
Educational History
Employment History
Community - 한국계산과학공학회 2023년도 추계학술대회
Minji Jeon
- Assistant Professor
- Department of Medicine, Korea University
Transcriptome-based Drug Discovery using AI
The L1000 technology, a cost-effective high-throughput transcriptomics technology, has been applied to profile a collection of human cell lines for their gene expression response to>30,000 chemical and genetic perturbations. In total, there are currently over 3 million available L1000 profiles. Such a dataset is invaluable for the discovery of drug and target candidates and for inferring mechanisms of action for small molecules. The L1000 assay only measures the mRNA expression of 978 landmark genes while 11,350 additional genes are computationally reliably inferred. The lack of full genome coverage limits knowledge discovery for half of the human protein coding genes, and the potential for integration with other transcriptomics profiling data.
In this talk, I will present a Deep Learning two-step model that transforms L1000 profiles to RNA-seq-like profiles. The input to the model are the measured 978 landmark genes while the output is a vector of 23,614 RNA-seq-like gene expression profiles. The model first transforms the landmark genes into RNA-seq-like 978 gene profiles using a modified CycleGAN model applied to unpaired data. The transformed 978 RNA-seq-like landmark genes are then extrapolated into the full genome space with a fully connected neural network model. The two-step model achieves 0.914 Pearson's correlation coefficients and 1.167 root mean square errors when tested on a published paired L1000/RNA-seq dataset produced by the LINCS and GTEx programs. The processed RNA-seq-like profiles are made available for download, signature search, and gene centric reverse search with unique case studies. Link: https://appyters.maayanlab.cloud/#/L1000_RNAseq_Gene_Search
Educational History
Employment History
Community - 한국계산과학공학회 2023년도 추계학술대회
한혜림 (Han He Rim)
- 매니저
- 미디어젠
문자열 기반 생성 모델을 이용한 신약 개발
In recent year, machine learning (ML)-driven methods have been greatly developed in the medicinal chemical fields. One of the main challenges is to generate drug candidates through state-of-the-art natural language processing (NLP) methods. A general method in cheminformatics which utilizes ML techniques for NLP by representing a molecule as a sequence of character is SMILES-based deep generative model. However, generated candidates through ML models are often impracticable to synthesize in the real-world. Moreover, SMILES-based generative models have intrinsic translation issue in converting SMILES code to valid chemical structure.
Here, we summarize the recent advances in SMILES-based deep generative model for drug discovery. We also introduce a generative modeling method based on smiles encoding by transformer model and optimization of drug candidates. This procedure simultaneously optimizes binding affinity and synthetic accessibility of candidates with or without predetermined conditions.
Educational History
Employment History
Community - 한국계산과학공학회 2023년도 추계학술대회
이윤지 (Yoonji Lee)
- 부교수
- 중앙대학교 약학대학
Integrative analysis of human protein sequences, 3D structures, and chemical information: for the discovery of GPCR ligands
Designing or searching for potential drug molecules is a pivotal step in the early stages of drug discovery. The emergence of vast volumes of biological, chemical, and pharmacological data, coupled with exponential growth in computational power, places us firmly in a new era of efficient and rational drug discovery. Consequently, there is a requirement for the development of advanced analytical algorithms capable of integrating various bio-big data from disparate databases.
In this study, we aim to construct a database designed to streamline the early-stage hit discovery process by integrating homologous sequences, three-dimensional (3D) protein structures, and relevant chemical data. This combination provides a user-friendly platform for accessing comprehensive information about binding site characteristics, sequence and structural conservation, and available ligands related to a specific human protein sequence. We present a thorough analysis of ligand interaction patterns for purinergic P1 and P2Y receptors, providing insights into the structural basis for receptor selectivity. Our database serves as a valuable tool for facilitating virtual hit predictions, thereby aiding in the identification of new candidate molecules for potential drug discovery.
Educational History
Employment History
Community - 한국계산과학공학회 2023년도 추계학술대회
이진희 (Jinhee Lee)
- 책임연구원
- 일동제약 중앙연구소
Protein-Ligand Binding Affinity Prediction According to Drug Discovery Stage
X-ray, Cryo-EM 및 AlphaFold2의 발전으로 단백질의 3차 구조가 빠르게 밝혀지고 있으며 하드웨어 발전과 함께 이러한 기술은 신약개발에서 Structure-Based Drug Discovery (SBDD)의 적용을 가속화하고 있습니다.
본 세션에서는 신약개발의 각 단계에서 사용되는 단백질과 리간드 간의 결합 에너지를 예측하는 다양한 방법들을 소개하고자 합니다. 또한 제약 회사의 실제 사례 연구를 통해 저분자 화합물 기반 신약개발에서 결합에너지 예측의 현재 상황, 잠재력 및 한계를 이해하는데 도움을 드리고자 합니다.
Educational History
Employment History
Community - 한국계산과학공학회 2023년도 추계학술대회
김남규
- 책임연구원
- 한국과학기술정보연구원
시뮬레이션과 인공지능 기반 산업용 로봇 예지보전 기술개발에 대한 연구
산업용 로봇은 공정 자동화의 핵심 장비로 4차 산업혁명으로 촉발된 스마트 팩토리에서 인공지능과 결합되면서 중요성이 더욱 커지고 있다. 이런 공정 자동화의 핵심장비에 문제가 발생한다면 생산 차질로 인해 손실이 발생하므로 이를 예방할 필요성이 있다. 이를 위해 로봇의 이상을 감지하여 고장으로 인한 정지를 예방하는 다양한 연구가 진행되고 있다.
본 논문에서는 산업용 6축 로봇을 대상으로 IoT 센서에서 수집되는 데이터를 기반으로 만들어진 인공지능 모델과 함께 시뮬레이션을 기반으로 차수감수모델 기술을 융합한 예지보전 기술개발에 대한 연구를 기술하고자 한다. 우선 음향센서와 진동센서에서 수집한 데이터를 기반으로 인공지능 모델 개발에 대해 기술한다. 그리고 로봇의 RV 감속기에 대한 시뮬레이션을 기반으로 차수감수모델 개발에 대해 기술하고, 이를 융합하는 방안에 대해 논의한다.
Educational History
Employment History
Community - 한국계산과학공학회 2023년도 추계학술대회
이용진 (Yongjin Lee)
- 부교수
- 인하대학교
Molecular Design of Advanced Polymers Through Computational Modeling and Machine Learning
Advanced polymers have garnered significant attention due to their immense potential in diverse applications, including electronics, energy production, and environmental science. The versatility of these polymers allows for virtually limitless structural variants by manipulating different molecular components, far surpassing the volume of synthesized advanced polymers reported in recent literature. The vast spectrum of potential structures demands the use of cutting-edge computational methods to illuminate existing or unexplored polymer architectures, and to expedite the search for polymers with superior properties.
In this presentation, I will share our latest endeavors in the exploration and design of advanced polymers leveraging computational modeling integrated with machine learning techniques.
Educational History
Employment History
Community - 한국계산과학공학회 2023년도 추계학술대회
임상수
- 조교수
- 동국대학교
Towards Application of Supercomputing in Predicting Drug-induced Liver Toxicity: Utilizing Graph Mining Techniques in Artificial Intelligence Models
Drug-Induced Liver Injury (DILI) is a major hurdle for the failure of drugs during clinical trials. It is crucial to examine toxic compounds based on their chemical structures, given that these compounds might be metabolized into harmful substances within the liver. Traditional machine learning methodologies have shown only limited effectiveness in predicting DILI. Even the emerging deep Graph Neural Network (GNN) models are yet to fully unlock their power in predicting DILI. Here, we developed a graph mining approach: Supervised Subgraph Mining (SSM). This strategy mines explicit subgraph features through a process of iterative updates to individual graph transitions, all aimed at maximizing DILI fidelity. Our methodology showed superior results compared to previous approaches, including the most advanced GNN tools, when it came to classifying DILI across two separate datasets: DILIst and TDC-benchmark. We further enhanced our approach by integrating the mined subgraph features, using SMARTS-based frequent structural pattern matching, and correlating them with drugs' ATC codes. These results reflect the potential of supercomputing applications, specifically in combination with graph mining techniques, to significantly enhance the predictive accuracy of DILI in artificial intelligence models.
Educational History
Employment History
Community - 한국계산과학공학회 2023년도 추계학술대회
김재호
- 연구교수
- 성균관대학교 의과대학, 삼성서울병원 AI연구센터
The challenges of explainable AI in medical data science
In medical data science, explainable AI (XAI) refers to the ability of AI models to provide transparent and interpretable explanations for predictions and decision-making processes. While AI has shown great promise in healthcare applications, there are several challenges associated with achieving explainability in this area.
These challenges include complex AI models, black box characteristics, data complexity, lack of standardization, accuracy and accountability balancing, and ethical and legal considerations. Addressing these challenges requires the development of new XAI technologies specialized in medical data science. Researchers are actively exploring methods such as model distillation, feature importance analysis, rule extraction, and surrogate models to improve the interpretability of AI models in the medical domain.
This study introduces the case of research on the development of explainable artificial intelligence technology that was attempted in research cases using medical data (clinical data, medical images, etc.) acquired at Samsung Medical Center. Through examples such as cancer marker development, prognostic factor extraction, survival period analysis and prediction, ECG, gate sensor signal, feature extraction for video image analysis, and COVID-19 prognosis prediction, we would like to introduce challenges in medical data science. We also hope that establishing standards and guidelines for explainability in healthcare will be a good attempt to promote trust, compliance, and widespread adoption of AI technologies.
Educational History
Employment History
Community 7 - HPC와 6G 오픈플랫폼 (해금 B) | |
|
|
Time | Program |
10:00~10:30 | 국가 연구개발 거버넌스와 신기술 투자생태계 한마음 책임연구원(정보통신기획평가원) |
10:30~11:00 | 컴퓨팅 디바이스 산업의 발전방향 점검 – 모빌리티와 그 이후 김우진(아주대학교) |
11:00~11:30 | 리빙랩 기반 스마트시티 실증사례 조광현 센터장(대구테크노파크) |
11:30~12:00 | 글로벌 반도체 패권 경쟁과 대응방안 정원중 센터장(경기도경제과학진흥원) |
Community - HPC와 6G 오픈플랫폼
한마음 (HAN MA EUM)
- 책임연구원
- 정보통신기획평가원(IITP)
국가 연구개발 거버넌스와 신기술 투자생태계
신기술 투자생태계에서 기술은 컨셉 단계에서부터 시장에 진입하고 수익을 창출할 수 있는 단계까지 발전해야 한다. 이 과정에서 민간필드와 공공필드의 역할과 협력이 중요하다. 민간필드는 기술의 수요와 공급을 조절하고, 투자와 자금을 제공하며, 기술의 상용화와 확산을 촉진한다. 공공필드는 기술의 방향과 목표를 설정하고, 정책과 로드맵을 수립하며, 기술의 개발과 보호를 지원한다.
이 두 필드의 상호 연결과 역할에 대한 패러다임 전환은 국가연구개발 거버넌스의 핵심이다. 국가연구개발 거버넌스란 국가가 연구개발에 관련된 다양한 주체와 자원을 조율하고 관리하는 체계와 방식을 말한다. 국가연구개발 거버넌스는 기능과 투자구조로 구분할 수 있다. 기능은 국가가 연구개발에 어떤 목적과 역할을 가지고 있는지, 투자구조는 국가가 연구개발에 어떤 방식과 비율로 자금을 지원하는지를 나타낸다.
신기술이 기업의 먹거리가 되고 산업화되는 모먼트마다 민간필드와 공공필드의 관계와 역할은 변화한다. 이에 따라 국가연구개발 거버넌스도 유연하게 대응해야 한다. 민간과 공공의 중간영역에서 신기술 투자생태계를 분석하고, 국가연구개발 거버넌스의 현재 상황과 문제점을 파악하고, 개선 방안을 제시하고자 한다.
Educational History
Employment History
Community - HPC와 6G 오픈플랫폼
김우진
- 박사과정
- 아주대학교 산업공학과
컴퓨팅 디바이스 산업의 발전방향 점검 – 모빌리티와 그 이후
본 세션에서는 체계적인 컴퓨팅 장비가 필요한 시장을 컴퓨팅 디바이스 산업이라 조작적 정의를 내리고, 컴퓨팅 디바이스 산업의 범주가 확장되는 과정을 최근 자동차 산업의 변화를 통해 살펴보고자 한다.
더불어 최근 자동차 산업이 새로운 컴퓨팅 디바이스로 부상할 수 있었던 거시적인 이유에 대해 점검하고, 차세대 컴퓨팅 디바이스로서 주목받을 수 신산업에 대해서도 전망해보고자 한다.
Educational History
Employment History
Community - HPC와 6G 오픈플랫폼
조광현 (Cho Kwang Hyun)
- 센터장
- 대구테크노파크
리빙랩 기반 대구 스마트시티 실증사례
- 리빙랩을 통한 대구 도시혁신 플랫폼
- 도시문제 발굴과 해결을 위한 리빙랩 운영 사례
- 대구 생활 속 스마트시티 리빙랩 사례
- 리빙랩 플랫폼-스마트커뮤니케이션
Educational History
Employment History
Community - HPC와 6G 오픈플랫폼
정원중
- 센터장
- 경기도경제과학진흥원 반도체기업지원센터
글로벌 반도체 패권 경쟁과 대응방안
국내 반도체생산액은 우리나라 전체 제조업의 10%를 차지하며 수출액은 국내 전체 수출액의 18.9%를 차지하는 주력산업이다. 주요 반도체 수출국은 중국,홍콩,대만 등이며 특히 중국비중이 40%에 달하고 있으나 최근 미중 반도체 패권으로 인해 미국의 반도체 제제가 진행됨에 따라 중국비중이 높은 국내 반도체 공급망 구조개선에 대한 필요성이 제기되고 있다
우리나라 반도체산업에서 메모리 비중이 70%를 차지하고 있으며 이는 전 세계 대비 2배 이상 높으며 이에따라 가격변동성이 큰 메모리 반도체 특성상 경기하락의 위험성도 크다. 이를 극복하기 위해 대만과 같은 시스템 반도체 생태계 조성을 위해 용인반도체클러스터 지정에 따른 판교를 중심으로 한 시스템반도체 클러스터 구축에 대한 논의가 필요하며 이를 효과적으로 추진하기 위한 정부와 경기도의 역할론이 높아지고 있으며, 성남-용인-화성-평택-이천으로 이어지는 메가 반도체클러스터 구축 및 이를 활성화하기 위한 기업지원 및 인력양성 프로그램에 대해 알아본다.
Educational History
Employment History
8월21일(월) - 기조강연 | 슈퍼컴퓨터 도입 35주년 기념식 & KSC2023 개회식 | ||
Time | Program | Connect |
10:00~11:00 | Keynote Speech 1 - 혁명과 낭만의 과학, 그리고 과학사 속의 계산 과학자들 | 다시보기 |
Organizing Committee
위원장
김재수 원장 (KISTI)
위 원
이용훈 총장 (UNIST)
신동우 교수 (서울대학교)
이 식 본부장 (KISTI)
Program Committee
위원장
최재영 교수 (숭실대학교)
위 원
이주석 부사장 (인텔)
이상문 센터장 (인공지능산업융합단)
김정호 교수 (인하대학교)
홍태영 센터장 (KISTI)
함재균 센터장 (KISTI)
Steering Committee
위원장
이 식 본부장 (KISTI)
위 원
장지훈 위원 (KISTI)
Workshop Committee
슈퍼컴퓨팅 인프라 운영 및 서비스 기술
분과위원장: 윤준원 박사
플랫폼 기반 전자구조 및 TCAD 계산의 현재와 미래
분과위원장: 김용훈 교수
초고성능컴퓨팅 자원․기술/산업 현황 및 활용 활성화 방안
분과위원장: 이행곤 박사
디지털트윈을 위한 물리기반 시뮬레이션 및 인공지능 융합 기술 연구
분과위원장: 손일엽 박사
AI & Big Data
분과위원장: 이주석 부사장
양자통신 구축을 위한 주요 연구추진 공유 세미나
분과위원장: 이원혁 단장
H-N-A(HPC, 5G, AI) 기반의 산업 융합 기술
분과위원장: 박선례 박사
대형연구시설과 HPC 융합
분과위원장: 여일연 박사
초고성능컴퓨팅 활용한 기후와 천문 분야 문제 해결
분과위원장: 권오경 박사
이기종 아키텍쳐 기반 초고성능 컴퓨팅 시스템 기술
분과위원장: 차광호 박사
슈퍼컴퓨팅 인프라 운영 및 서비스를 위한 기술 교류회
분과위원장: 안도식 박사
지구과학 데이터 가시화 기술
분과위원장: 조민수 박사
계산과학·데이터·인공지능 중심 R&D 플랫폼 구축을 위한 요소기술 연구개발 현황
분과위원장: 이정철 단장
한국 슈퍼컴퓨팅센터 연합 워크숍
분과위원장: 함재균 센터장
INTEL® ONEAPI 사례 발표 및 실습 핸즈-온
분과위원장: 이주석 부사장
Community Committee
Machine Learning for HEP
분과위원장: 조기현 박사
공학분야 오픈소스 소프트웨어 활성화
분과위원장: 윤태호 박사
MyKSC 소개 및 활용사례
분과위원장: 박주원 박사
HPC Cloud(KISTI R&D Cloud Platform)
분과위원장: 정기문 박사
슈퍼컴퓨터와 머신러닝의 만남
분과위원장: 강지훈 박사
한국계산과학공학회 추계학술대회
분과위원장: 이창훈 교수
HPC와 6G 오픈플랫폼
분과위원장: 박선례 박사
KSC2023(2023년 한국 슈퍼컴퓨팅 컨퍼런스)는 국내외 산·학·연 슈퍼컴퓨팅 전문가 및 일반 사용자를 대상으로 “Moving beyond HPC to AI” 이라는 주제하에 인공지능 / 딥러닝, 빅데이터, 차세대 HPC, 계산과학공학, 클라우드 부문에서 핵심적인 기술 이슈들을 지원 및 극복하기 위한 슈퍼컴퓨팅 발전방향을 논의하는 장을 마련하고자 합니다. 아울러 슈퍼컴퓨터 관련 개발자, 연구자 및 산업체간의 성과 전시 및 다양한 제품 전시를 통한 슈퍼컴퓨팅 산업 활성화를 위하여 행사기간 동안 성과 및 제품 전시를 개최합니다. 이에, KSC2023 전시부스 참가 신청을 받고자 하오니, 관심 있는 슈퍼컴퓨팅 관련 산업체의 많은 참여를 바랍니다.
행사 문의 : 장지훈 연구위원 | jangoq@kisti.re.kr | 042-869-0540
오시는 길 : The-K Hotel Seoul | 거문고 홀(3층)