초거대 AI의 진화는 우리가 쉽게 풀 수 없는 난제들을 푸는데 큰 역할을 할 것으로 보입니다. 사람이 풀 수 없는 문제들을 컴퓨팅 기술을 이용하여 풀어 나간다는 점은 매력적인데요, 그 난제에 대한 부분이 과제를 위한 난제가 아닌 인류에 꼭 필요한 부분이었으면 하는 바램입니다.
금일(2022.12.09. 금) 신문리뷰 입니다
● 전자신문
구분 | 헤드라인 | 설명 |
(AI) 초거대 AI |
LG 초거대 AI 엑사원, 항암 백신, 차세대 배터리 개발 등 난제 해결에 투입 | LG 초거대 인공지능(AI) 엑사원이 항암 백신과 차세대 배터리 개발 등 난제 해결에 투입됐다. 무한대에 가까운 경우의 수를 놓고 사람이 직접 실험을 하거나 시뮬레이션 계산 방식을 사용했던 일이 보다 신속·정확해질 전망이다. LG AI연구원은 8일 설립 2주년을 맞아 온라인으로 진행한 'LG AI 토크 콘서트'에서 '전문가 AI 개발을 위한 도전과 혁신'을 주제로 LG의 AI 기술 연구 성과를 공유했다. LG AI연구원은 LG 계열사 및 국내외 파트너사들과 협업해 실제 산업 현장에 AI 기술을 적용하고 있다. LG전자는 주 단위로 국가별, 지역별 제품 판매 수요를 예측하는 데 AI 기술을 적용하기 시작했다. LG이노텍은 카메라 렌즈와 센서의 중심을 맞추는 공정에 AI 기술을 도입해 최적화 기간을 50% 이상 단축했다. LG AI연구원은 환자의 유전 정보와 암 세포의 돌연변이 정보를 이용해 암 세포 사멸을 유도하는 신항원을 예측하는 AI 모델을 개발했다. 이는 기존 타 예측 모델들과 비교했을 때 가장 우수한 성능을 보여 개인 맞춤형 항암 백신 개발 기간을 크게 단축시킬 수 있을 것으로 기대된다. 또 차세대 배터리인 리튬황 배터리에 최적화된 전해질 화합물을 찾아내는 AI 모델, 차세대 OLED용 발광 재료 성능을 예측하는 AI 모델 등을 개발했으며, 현재 가능성이 높은 후보 물질들을 찾아 검증하고 있다. LG AI연구원은 LG의 초거대 AI 엑사원이 논문·특허 등 전문 문헌의 텍스트뿐만 아니라 수식과 표, 이미지까지 스스로 학습해 데이터베이스화 하는 기술을 개발했다. 이 기술은 인류가 쌓아온 지식을 AI가 스스로 학습해 활용할 수 있다면 질병, 에너지와 같은 세상의 난제를 해결하는 데 도움이 될 수 있을 것이라는 아이디어를 구체화한 것이다. LG AI연구원은 초거대 언어모델에 적용한 'AI 경량화·최적화 신기술' 연구 성과도 공개했다. LG AI연구원은 지난해 공개한 엑사원 대비 그래픽처리장치(GPU) 사용량은 63% 줄이면서도 AI 개발 속도를 좌우하는 추론 속도는 40% 더 빠르고, 정확도는 글로벌 최고 성능을 의미하는 'SOTA' 이상으로 개선한 모델을 개발했다. LG AI연구원은 코딩에 관한 전문 지식이 없거나 AI 개발자가 아니어도 쉽고 간편하게 엑사원을 사용해보고 활용할 수 있도록 서비스 플랫폼도 개발했다. '엑사원 유니버스'는 고객 대상 언어 전문가 AI를 보다 편하게 기획하고 개발할 수 있도록 한 초거대 언어모델 기반 플랫폼이다. '엑사원 아틀리에'는 텍스트와 이미지간 양방향 생성이 가능한 엑사원만의 멀티모달 특성을 살려 사람과 AI가 협업해 세상에 없던 창조적 디자인을 생성하는 플랫폼이다. 배경훈 LG AI연구원장은 “LG가 지향하는 '전문가 AI' 역할은 인간과 협력해 인류의 난제를 해결하며 '기존에 없던 새로운 고객 가치'를 창출하는 것”이라고 말했다. 배 원장은 “세상의 지식을 실시간으로 활용해 현실 세계의 복잡한 문제들을 해결하고 최적의 의사결정을 돕는 전문가 AI 즉, '유니버셜 AI' 구현을 목표로 연구를 진행하고 있다”고 전했다. |
● 보안 뉴스
구분 | 헤드라인 | 설명 |
(SE) 머신러닝 보안 |
머신러닝 알고리즘도 멀웨어 담는 그릇으로 활용 가능하다 | 위협 행위자들이 머신러닝 모델을 가로채고, 이를 멀웨어 유포에 활용할 수 있다는 사실이 발견됐다. 심지어 훔쳐낸 모델을 가지고 피해자 네트워크에서 횡적으로 움직일 수도 있다고 한다. 공격에 활용되는 머신러닝 모델들은 비싸거나 구하기 힘든 게 아니라 이미 널리 공개된 것들이 대부분이라고 하며, 각종 악성 행위에 동원될 수 있어 대비가 필요하다고 전문가들은 강조했다. 이들이 공격의 재료로 삼은 머신러닝 알고리즘은 이미 수많은 기업들에 도입되어 있는 기술이다. 86%의 CEO들이 머신러닝을 2021년에 주력 기술로 도입했다는 조사 결과가 있을 정도다. 자율 주행, 로봇 공학, 스마트 의료, 미사일 가이드 시스템, 챗봇, 디지털 조수, 얼굴 인식, 온라인 상품 추천 시스템 등 머신러닝이 응용되는 곳이 무궁무진하다는 걸 생각해 보면 이 결과가 그리 이상한 것이 아니다. 하지만 각종 애플리케이션의 기반이 될 만한 머신러닝 기술을 자체적으로 개발한다는 건 매우 난이도가 높은 작업이다. 모든 기업들이 다 감당할 수 있는 게 아니다. 그렇기 때문에 많은 기업들이 오픈소스처럼 공개된 머신러닝 모델들을 가져다가 애플리케이션을 개발한다. 히든레이어의 연구원들이 지적하고 있는 것이 바로 이 부분이다. 공개된 머신러닝을 가져다 쓸 때 위험할 수 있다는 것 말이다. “머신러닝이 공유되는 리포지터리들은 보안 장치라고 할 만한 것이 없을 때가 많습니다. 이 때문에 누군가 머신러닝 알고리즘을 멋대로 조작한다 하더라도 막거나 알아낼 방도가 없습니다.” 야누스의 설명이다. “최근 각종 리포지터리에 악성 코드가 몰래 업로드 되다가 발각되는데, 그와 똑같은 일이 인공지능 생태계에서도 일어날 수 있다는 것이죠. 머신러닝 공급망 공격이 실현 가능하다는 겁니다.” 히든레이어의 연구원들은 자신들의 개념을 증명하기 위해 파이토치(PyTorch)라는 오픈소스 프레임워크를 활용했다. 하지만 텐서플로우(TensorFlow)나 사이킷런(scikit-learn), 케라스(Keras) 등과 같은 인기 높은 기타 머신러닝 라이브러리들에도 비슷한 공격이 가능하다고 한다. 연구원들은 스테가노그래피와 비슷한 기법으로 머신러닝 모델에 랜섬웨어 실행파일을 삽입했다. “스테가노그래피와 비슷한 기법을 사용한 건, 모델의 신경망 레이어의 모든 플로트(float)에서 제일 덜 중요한 비트를 대체하기 위해서였습니다.” 다음으로 문제의 바이너리를 디코딩 하고 실행하기 위해 연구원들은 파이토치 및 피클 직렬화(pickle serialization) 포맷의 오류를 사용했다. 이 오류는 임의의 파이선 모듈을 로딩하고 실행할 수 있게 해 주는 취약점이었다. “이 과정을 수행하기 위해 모델의 파일 첫 부분에 작은 파이선 스크립트를 삽입했습니다. 그 전에는 해당 스크립트를 실행하는 명령을 미리 넣어두었고요. 스크립트가 실행되면 텐서에서부터 페이로드를 재구축하고, 그 결과물을 메모리에 주입하게 설계했습니다. 디스크에 흔적을 남기지 않게 말이죠. 이렇게 하니 저희가 감염시킨 모델은 본연의 기능을 거의 그대로 실행하면서 악성 기능도 가지게 됩니다.” 이렇게 연구원들 손에 의해 ‘무기화’ 된 모델은 현존하는 백신과 엔드포인트 탐지 도구들을 손쉽게 피해간다. 모델이 기본적으로 가지고 있던 정확도에 약간 문제가 생기긴 하는데, 매우 사소해서 신경 쓰지 않아도 될 정도라고 한다. “머신러닝 모델을 스캔하는 백신 솔루션들은 아직 찾기 힘든 게 사실이죠. 그러니 머신러닝 알고리즘을 악성 코드의 그릇으로 활용하면 거의 다 무사통과합니다.” 참고로 연구원들은 실험을 진행하며 퀀텀(Quantum) 랜섬웨어를 활용했다. 실험실에서 진행한 공격을 실제 상황에서 똑같이 실행할 수 있을까? 그러려면 공격자 입장에서 제일 먼저 할 일은 자신들이 감염시킬 머신러닝 모델을 지정해 복사하는 것이다. 이미 공개된 모델과 알고리즘을 활용하는 공격이기 때문에 이 단계는 전혀 어려울 것이 없다. 모델이 공유되는 사이트로 들어가 다운로드 받으면 끝이다. “그 다음은 유명 머신러닝 리포지터리에 들어가 감염시킨 모델을 업로드 합니다. 이 때 유명한 모델과 비슷한 이름을 사용하거나, 아예 대체하는 것도 가능합니다. 그렇게 할 경우 악성 모델이 다운로드 되는 회수가 늘어나겠죠. 누군가 그 모델을 꼼꼼하게 검사하지 않는 이상, 그리고 이상하다는 소식을 널리 알리지 않는 이상, 사람들은 계속해서 멀웨어가 섞인 그 모델을 가져가 애플리케이션을 만들 겁니다.” 머신러닝 모델을 유료로 만들어 판매하는 기업에 침투해 일부 모델들을 감염시킬 수도 있다고 히든레이어 측은 설명한다. “일종의 공급망 공격을 실시할 수 있다는 것이죠. 머신러닝 알고리즘 벤더사를 공략함으로써, 그 벤더사로부터 모델을 공급받는 고객사들을 한꺼번에 감염시키는 게 가능합니다. 어떤 방식으로 감염시키느냐에 따라 공격의 방향이 달라질 수 있습니다만, 나중에 피해자의 네트워크에 접속해 횡적으로 움직이는 데 활용되는 멀웨어를 심을 경우 효율이 좋아지겠죠.” 이 연구의 목적은 공개된 머신러닝 모델을 다운로드 받는 것이 위험할 수 있다는 걸 알리는 데 있다고 야누스는 강조했다. “아무리 유명한 리포지터리에서 많은 사람들이 사용하고 있는 멀웨어를 다운로드 받는다고 하더라도 신뢰할 수 없는 소프트웨어처럼 다루어야 합니다. 물론 지금은 머신러닝 모델 내에 있는 악성 요소를 탐지할 도구가 시장에 많지 않은 게 사실입니다. 그렇기 때문에 신뢰하지 않는다고 해도 딱히 할 일이 없는 게 맞습니다. 하지만 격리된 환경에서 다운로드 한 모델을 사용하고 실험할 수는 있겠죠.” 또한 보다 안전한 저장 포맷을 활용하는 것도 도움이 된다고 야누스는 제안한다. “예를 들어 코드 실행이 허용되지 않는 포맷들이 있거든요. 그런 포맷을 활용하면 일부 악성 파일이 실행파일 형태일 때 안전해질 수 있지요. 결국 무엇이나 다른 곳에서 다운로드 받은 요소라면 무조건 의심하는 마음으로 활용하는 것이 안전하다는 것입니다. 그것이 오픈소스 코드든 알고리즘이든 말이죠.” |
금일 주목할 기사는 머신러닝 보안 관련 기사입니다.
머신러닝과 관련하여 모델을 이용할 때 오픈소스를 많이 사용하는게 사실인데요, 이 때 다양한 악성코드를 넣게 된다면 이에 따라 보안 위협 요소가 발생할 수 있다고 합니다. 우리는 무심코 복사하여 이용할 때 그 속에 들어간 위협 요소에 대해서도 인지를 해야 하는게 아닌가 하는 생각이 듭니다.
'IT 트렌드 IT Trend > IT 기사 IT news' 카테고리의 다른 글
[Daily IT News] 스마트홈대응협의체, AI반도체, ETM (0) | 2022.12.13 |
---|---|
[Daily IT News] 홈네트워크보안, 고객경험, 바이오국가전략 (0) | 2022.12.12 |
[Daily IT News] 6G(28GHz), AI 트렌드(예술) (1) | 2022.12.08 |
[Daily IT News] 2023 주요보안위협, 제로트러스트 (2) | 2022.12.07 |
[Daily IT News] 모바일 보안, 멀티모달 초거대 AI (0) | 2022.12.07 |