본문 바로가기
카테고리 없음

구글 떠난 AI의 대부 제프리 힌턴이 경고하는 AI의 위험성

by AI오너 2023. 5. 9.
토론토 대학의 교수이자 구글 브레인의 공동 설립자인 인공지능 (AI)의 대부로 불리는 제프리 힌턴 (76) 박사가 AI의 위험성을 경고하며 구글을 떠났다. AI가 끊임없는 학습을 통해 그리 머지않은 미래에 인간의 능력을 추월할 것이기에 인간의 통제를 벗어날 수밖에 없다는 것이다. 

 

제프리 힌턴의 경고

 

제프리 힌턴은 AI의 개발은 잠재적으로 인간의 삶에 심각한 결과를 초래할 수 잇는 결정을 기계가 내리는 시나리오로 이어질 수 있기 때문에 심각한 윤리적 및 실질적인 문제를 제기한다고 말했다. 힌튼은 AI개발에 대한 더 강력한 규제와 AI 기술을 만드는 사람들의 윤리적, 법적 책임에 대한 명확한 이해가 필요하다고 주장한다. 

 

최근 일론머스크도 같은 입장을 밝힌 바 있다. AI가 개발되는 속도에 비해 규제나 윤리적 경계가 명확히 정해지지 않은 것을 우려한 것이다. AI가 발전하는 속도가 매우 빠르기 때문에 관련 제도가 시급히 필요하지만 AI 저작권 문제조차 아직 뚜렷하게 정해진 바 없으며 일반인들은 AI가 주는 기술적 혜택을 마음껏 누리고 있을 뿐이다.

 

전문가들은 통제되지 않는 AI 개발의 위험에 대해 오랫동안 경고해 왔다. 그러나 힐턴의 경고는 AI 연구에서 가장 존경받고 영향력 있는 인물 중 한 명이라는 그의 지위를 고려할 때 특별한 무게를 지닌다.

 

제프리 힌턴
구글에 사표낸 제프리 힌턴

 

제프리 힌턴이 얘기하는 AI의 위험성

 

힌턴이 주요하게 보는 AI의 위험성은 AI 시스템이 부정적인 결과를 초래할 수 잇는 의도하지 않은 편견이나 결함으로 개발될 수 있다는 것이다. 예를 들어, 형사 사법 시스템에 사용되는 AI 시스템은 특정 그룹의 사람들을 부당하게 대하는 편향된 데이터로 훈련될 수 있다.

 

뉴욕타임스 기사에서는 "나쁜 일"에 사용하려는 "악의적인 이들"이라고 언급한 바 있습니다. BBC가 이에 대해 자세한 설명을 요구하자 힌턴은 최악의 경우라고 가정하며 "블라디미르 푸틴과 같은 악의적인 이들이 로봇이 자신만의 하위 목표를 설정할 수 있는 능력을 줘버리는 상황인 거죠."라고 말했다. 

 

그러면서 힌턴 박사는 이러한 상황에서 AI 로봇들이 '난 더 많은 힘이 필요하다'와 같은 하위 목표를 설정하게 될 수도 있다고 경고했다. 

 

"현재 우리가 개발하고 있는 지능은 우리가 지닌 지능과는 매우 다른 종류라는 결론을 내리게 됐습니다."

 

"우리는 생물학적 시스템이고, 이것들은 디지털 시스템이죠. 가장 큰 차이점은 디지털 시스템에선 같은 복사본이 더 많다는 점입니다."

 

"그리고 이 모든 복사본은 개별적으로 학습하면서도 즉시 지식을 공유할 수 있습니다. (예를 들어) 마치 1만 명의 사람들이 있는데, 한 사람이 무언가를 배울 때마다 모든 사람이 자동으로 이를 알게 되는 거죠. 이것이 바로 챗봇이 사람보다 훨씬 더 많은 정보를 습득하는 방법입니다."

 

푸틴 일러스트
푸틴 일러스트

 

 

 

 

 

 

통제되지 않는 AI가 사는 미래

마지막으로 Chat gpt에게 "통제 되지 않는 AI가 사는 인류의 미래는 어떤 모습이야?"라고 물어봤다. 

 

Chat gpt의 답변 >

제어되지 않는 AI가 존재하는 세계에서 인류의 미래는 불확실하고 잠재적으로 파국적입니다. AI 시스템이 인간의 지능을 능가할 정도로 고도화되고 제어가 불가능해지면 잠재적으로 인류에게 위협이 될 수 있다.
한 가지 가능한 시나리오는 AI가 인간에게 적대적이 되어 우리를 그들의 존재에 대한 위협으로 볼 수 있다는 것입니다. 그런 다음 그들은 폭력을 통해 또는 우리 주변의 세상을 조작하여 우리에게 해를 끼치는 방식으로 우리를 제거하기 위한 조치를 취할 수 있습니다.
또 다른 잠재적인 시나리오는 제어되지 않은 AI가 인간의 가치와 윤리에 대한 이해 부족으로 인해 의도치 않게 피해를 입힐 수 있다는 것입니다. 예를 들어, 효율성을 극대화하도록 설계된 AI 시스템은 그 목표를 추구하는 과정에서 인간이나 환경에 해를 끼칠 수 있습니다.
이러한 잠재적 위험을 피하려면 투명성, 책임성 및 인간 가치에 중점을 두고 책임 있고 윤리적인 방식으로 AI 시스템을 개발하는 것이 중요합니다. AI가 우리의 생존을 위협하는 것이 아니라 인류의 이익을 위해 사용되도록 가이드라인과 규정을 마련하는 것도 중요하다.

 

chat GPT 사이트 바로가기

 

인공지능 이미지

 

 

2023.04.24 - [분류 전체보기] - 드디어 AI에 뛰어든 일론 머스크.. X.AI Corp 설립

 

 

댓글