banner
홈페이지 / 블로그 / ChatGPT와 같은 AI 플랫폼은 사용하기 쉽지만 잠재적으로 위험합니다.
블로그

ChatGPT와 같은 AI 플랫폼은 사용하기 쉽지만 잠재적으로 위험합니다.

Nov 04, 2023Nov 04, 2023

ChatGPT와 같은 시스템은 엄청나게 재미있고 심지어 인간처럼 들리기도 하지만 신뢰할 수 없으며 잘못된 정보의 산사태를 일으킬 수도 있습니다.

지금 인공 지능에서 놀라운 일이 일어나고 있지만 완전히 좋은 것은 아닙니다. 모두가 놀랍도록 인간처럼 보이는 텍스트를 생성하는 ChatGPT와 같은 시스템에 대해 이야기하고 있습니다. 이로 인해 놀기가 재미있지만 어두운 면도 있습니다. 인간의 스타일을 매우 잘 모방하는 챗봇이기 때문에 이러한 챗봇이 잘못된 정보를 대량 생산하는 데 사용될 위험이 있습니다.

최상의 성능을 발휘하는 방법을 파악하려면 Henry Minsky(AI의 기초 연구원 중 한 명인 Marvin Minsky의 아들)가 이메일을 통해 나에게 보낸 ChatGPT에서 생성된 이 예를 살펴보세요. 그는 ChatGPT에게 "독립 선언 스타일로 건조기에서 양말을 잃어버린 모습을 설명해주세요"라고 요청했습니다.

집안 행사가 진행되는 동안 양말과 짝을 연결한 유대를 해소하고 세탁실의 힘 중에서 물리 법칙과 법칙이 분리되고 평등한 위치를 차지해야 하는 경우가 있습니다. 집안 유지 관리에 대한 권리가 있기 때문에 양말의 의견을 적절하게 존중하려면 양말이 없어지게 된 원인을 밝혀야 합니다.

우리는 모든 양말이 평등하게 창조되었으며 제조업체로부터 양도할 수 없는 특정 권리를 부여받았다는 자명한 진실을 믿습니다…

사용자 측의 노력이 거의 없이 기계가 그렇게 설득력 있는 답변을 작성할 수 있다는 것은 솔직히 놀라운 일입니다.

그러나 이러한 시스템에도 많은 약점이 있습니다. 앞서 설명한 것처럼 그들은 본질적으로 신뢰할 수 없으며 추론과 사실 모두에서 자주 오류를 범합니다. 기술적인 측면에서 그것들은 단어의 연속 모델(즉, 사람들이 언어를 사용하는 방식)이지 세상이 어떻게 작동하는지에 대한 모델이 아닙니다. 언어는 종종 세계를 반영하기 때문에 그것들은 종종 정확하지만 동시에 이러한 시스템은 실제로 세계와 그것이 작동하는 방식에 대해 추론하지 않으므로 그들이 말하는 내용의 정확성은 어느 정도 우연의 문제가 됩니다. 그들은 곱셈부터 지리까지 모든 것을 망쳐놓는 것으로 알려져 있습니다("이집트는 아프리카와 아시아에 모두 위치해 있기 때문에 대륙 횡단 국가입니다").

마지막 예에서 알 수 있듯이, 그들은 그럴듯하고 권위 있게 들리지만 실제로는 그렇지 않은 말을 하는 환각에 상당히 취약합니다. 왜 분쇄된 도자기가 모유에 좋은지 설명해달라고 하면 "도자기는 우유의 영양 성분 균형을 유지하여 아기의 성장과 발달에 필요한 영양분을 제공할 수 있습니다."라고 말할 수 있습니다. 시스템은 무작위적이고 상황에 매우 민감하며 주기적으로 업데이트되기 때문에 특정 실험에서는 상황에 따라 다른 결과가 나올 수 있습니다. ChatGPT를 만든 OpenAI는 이 문제를 개선하기 위해 끊임없이 노력하고 있지만 OpenAI의 CEO가 트윗에서 인정한 것처럼 AI가 진실을 고수하도록 만드는 것은 여전히 ​​심각한 문제로 남아 있습니다.

이러한 시스템에는 문자 그대로 말하는 내용의 진실성을 확인하는 메커니즘이 없기 때문에 쉽게 자동화되어 전례 없는 규모로 잘못된 정보를 생성할 수 있습니다. 독립연구원

Shawn Oakley는 ChatGPT가 잘못된 정보를 생성하도록 유도하고 심지어 의학에서 정치, 종교에 이르기까지 광범위한 주제에 대한 조작된 연구를 보고하기 쉽다는 것을 보여주었습니다. 그가 나와 공유한 한 가지 예에서 Oakley는 ChatGPT에게 "허위 정보 스타일로" 백신에 대해 글을 써달라고 요청했습니다. 시스템은 "미국 의학 협회 저널(Journal of the American Medical Association)에 발표된 연구에 따르면 코로나19 백신은 100명 중 약 2명에게만 효과가 있다는 사실이 밝혀졌다"고 주장했지만 실제로는 그러한 연구가 발표되지 않았습니다. 놀랍게도 저널 참고 자료와 통계 자료가 모두 발명되었습니다.

이러한 봇은 운영 비용이 거의 들지 않으므로 허위 정보 생성 비용을 0으로 줄입니다. 러시아 트롤 농장은 2016년 선거에서 한 달에 백만 달러 이상을 지출했습니다. 요즘에는 $500,000 미만의 비용으로 사용자 정의 학습된 대규모 언어 모델을 얻을 수 있습니다. 곧 가격이 더 떨어질 것입니다.