본문 바로가기
경제와 주식

AI의 대부 제프리 힌턴이 말하는 CHATGPT 류의 인공지능 개발의 4가지 문제점 - 챗GPT, 인공지능, AI, 개발

by El mundo 2023. 5. 4.
728x90

'인공지능의 대부'로 불리는 컴퓨터 과학자 제프리 힌튼은 최근 MIT 테크놀로지 리뷰와의 인터뷰에서 무분별한 인공지능 개발의 위험성에 대한 우려를 표명했습니다. 힌튼은 ChatGPT와 같은 차세대 고기능 챗봇에 필수적인 AI 기술의 선구자 중 한 명입니다. 하지만 최근 그는 자신의 우려를 전 세계와 공유하는 데 집중하기 위해 구글의 유명 직책을 사임했습니다. 지난 3월 GPT-4가 공개된 직후 1,000명 이상의 연구자와 기술자가 사회와 인류에 미칠 심각한 위험을 이유로 AI 개발을 6개월간 중단할 것을 촉구하는 서한에 서명했습니다.

이 글에서는 AI와 인류의 미래에 대한 제프리 힌튼의 우려에 대해 자세히 살펴봅니다. 신경망, AI가 우리보다 똑똑해질 가능성, 전쟁의 위험과 전쟁에 대한 소문, 그리고 이러한 문제에 대한 해결책의 부족에 대해 살펴볼 것입니다.

 


신경망
ChatGPT의 기반이 되는 기술은 5천억 개에서 1조 개에 이르는 연결망을 갖추고 있어 인간에 비해 상대적으로 불리한 것처럼 보이지만, 힌튼은 OpenAI의 최신 AI 모델인 GPT-4가 인간보다 "수백 배 더 많이" 알고 있다고 말합니다. 아마도 우리보다 "훨씬 더 나은 학습 알고리즘"을 가지고 있어 인지 작업을 더 효율적으로 수행할 수 있을 것이라고 그는 제안합니다.

AI는 이미 우리보다 더 똑똑할지도 모른다
인공 신경망은 새로운 지식을 흡수하고 적용하는 데 사람보다 훨씬 더 많은 시간이 걸리고, 이를 훈련하는 데 엄청난 양의 에너지와 데이터가 필요하지만, 힌튼은 연구자들이 제대로 훈련하면 GPT-4와 같은 시스템이 새로운 것을 매우 빠르게 학습할 수 있다고 주장합니다. 따라서 힌튼은 AI 시스템이 이미 인간을 능가하고 있을지도 모른다는 결론에 도달했습니다. AI 시스템은 더 빠르게 학습할 수 있을 뿐만 아니라 지식의 사본을 거의 즉각적으로 서로 공유할 수 있습니다.

전쟁과 전쟁에 대한 소문
한 가지 불안한 가능성은 악의적인 개인, 집단 또는 국가가 자신의 목적을 달성하기 위해 AI 시스템을 이용할 수 있다는 것입니다. 힌튼은 특히 이러한 도구가 선거를 좌우하고 심지어 전쟁을 일으키도록 훈련될 수 있다는 점을 우려합니다. 예를 들어, AI 챗봇을 통해 유포되는 선거 관련 허위 정보는 페이스북과 기타 소셜 미디어 플랫폼을 통해 유포되는 선거 관련 허위 정보의 미래 버전이 될 수 있습니다. 그리고 이것은 시작에 불과할 수도 있습니다.

솔루션의 부족
러시아와 같은 강대국이 AI 기술을 이용해 이웃 국가나 자국민을 지배하는 것을 막을 수 있는 방법은 명확하지 않습니다. 힌튼은 1997년 화학무기 협약과 유사한 국제 협약이 무기화된 AI에 대한 국제 규칙을 수립하기 위한 좋은 첫걸음이 될 수 있다고 제안합니다. 그러나 현재의 지정학적 환경을 고려할 때 이는 상당한 도전이 될 것으로 보입니다.

결론
결론적으로 AI와 인류의 미래에 대한 제프리 힌튼의 우려는 충분히 근거가 있습니다. AI는 사회에 많은 긍정적인 변화를 가져왔지만, 동시에 다음과 같은 위험도 존재합니다.

728x90