[일본] 타이틀: 주요 생성 AI의 보안 취약점 발견, 개인 및 기업 정보 유출 위험 본문: 최근 OpenAI의 'ChatGPT'와 Google의 'Gemini'를 포함한 주요 생성 인공지능(AI)에서 다양한 보안 취약점과 약점이 발견되어, 이를 악용할 경우 기업의 기밀 정보나 개인 정보가 유출될 위험이 있음이 드러났다. 이스라엘 벤구리온 대학교(Ben-Gurion University)의 연구팀은 생성 AI와 사용자 사이의 데이터 패킷을 가로채고 AI의 응답 내용을 높은 정확도로 복원하는 데 성공했다고 발표했다. 이 공격은 생성 AI가 사용자의 질문에 답변할 때 발생하는 데이터 처리의 취약점을 이용한 것이다. 연구팀은 생성 AI가 사용자의 지시나 질문에 답변할 때, 문장을 단어나 문자 단위로 토큰화하고 이를 사용자에게 연속적으로 전송하는 과정에서, 각 토큰 패킷의 크기를 분석하여 단어의 길이를 추정할 수 있는 방법을 발견했다. 이를 통해 생성 AI의 응답 중 29%를 정확하게 재현할 수 있었으며, 55%의 경우에는 주제를 추론하는 데 성공했다. 이러한 취약점은 ChatGPT와 Microsoft의 'Copilot'을 포함한 Gemini 이외의 주요 생성 AI에도 영향을 미친다. Microsoft는 이 취약점에 대한 대응을 발표했으며, OpenAI도 대책을 설명했다. 한편, Google의 Gemini 역시 이러한 취약점으로부터 자유롭지 못하다. AI 보안 회사 HiddenLayer는 공격자가 Gemini를 부정하게 조작할 수 있는 취약점을 발견했다고 보고했다. 이러한 발견은 생성 AI가 개인 및 기업의 일상에 깊숙이 침투함에 따라, 이들 AI 시스템의 보안 취약점을 통해 중요 정보가 유출되거나 잘못된 정보가 생성될 위험이 있음을 시사한다. 연구자들과 사이버 보안 회사들은 생성 AI 자체뿐만 아니라, 이를 다양한 서비스에 통합하는 '생성 AI 에코시스템'을 통해 사용자 계정이 해킹될 위험도 지적하고 있다.
로그인 후 모든 글을 볼 수 있습니다.