본문 바로가기
탄소중립(Net Zero)/기후 변화

AI 인류 멸종 수준의 위협 가능성

by 수줍은 공돌이 2024. 3. 13.
728x90
반응형

AI에 의해 Tech 주들이 일제히 상승하고 우리나라도 AI, AI 반도체 기업들의 주식이 지칠 줄 모르고 상승하고 있는 가운데, 미국 CNN 등 언론은 어제(3/12) 자 뉴스로 미 국무부 의뢰로 선도적인 AI기업의 최고 경영자, 사이버 보안 연구원, 대량살상무기 전문가, 정부 내 국가 안보 관계자 등 200여 명과 지난 1년 넘게 인터뷰한 결과를 담은 보고서를 인용 보도한다. 

이 보고서는 가장 발전된 AI 시스템이 최악의 경우 '인류 멸종 수준의 위협을 가할 수 있다.'라고 단호하게 밝히고 있다. 

정부의 개입이 필요하다.

연구원들은 보고서에 AI 컨퍼런스에서 발표된 실증적 연구 및 분석을 포함한 점점 더 많은 증거가 AI가 특정 기능 임계값을 초과하면 잠재적으로 제어할 수 없게 될 수 있다고 하고 있다.

약 1년 전, 'AI의 대부'로 알려진 제프리 힌튼(Geoffrey Hinton)은 구글을 그만두며 자신이 도와 개발하던 이 기술에 대해 고발을 했다. 그는 AI가 향후 30년 내에 인류를 멸종시킬 확률이 10% 라 말했다. Hilton과 이에 동조하는 일론 머스크를 포함한 업계, 학계의 리더 수십 명은 지난해 6월 'AI의 위험을 완화하는 것이 글로벌 우선순위가 되어야 한다'는 성명서를 내었었다.

비즈니스 리더들은 AI에 수십억 달러를 투자하면서도 이러한 위험에 대해 점점 더 우려하고 있고 지난해 Yale CEO summit에서 실시한 설문조사에서는 CEO 중 42%가 AI는 지금으로부터 5~10년 후에 인류를 파괴할 가능성이 있다고 답했었다. 

이러한 상황에 보고서는 AI의 위협에 맞서기 위한 분명하고 긴급하게 필요하다는 의견을 달고 AI의 주요한 위협으로 아래 두 가지를 경고하고 있다 

  • 고도로 발전한 AI 시스템이 돌이킬 수 없는 피해를 입힐 수 있는 무기화될 가능성 
  • AI 연구실 내에서 어느 시점 개발중인 시스템에 대한 통제력 상실

보고서는 AI와 AGI(Artificial general intelligence, 범용인공지능)의 부상은 과거 각국이 핵무기 도입을 연상시키는 방식으로 세계 안보를 불안정하게 할 가능성이 있다며 AI 군비 경쟁과 분쟁, 대량살상무기 규모의 치명적인 사고의 위험이 있다고 하며, 경쟁에 대한 압박으로 기업들은 '안전과 보안을 희생하며' AI 개발을 가속화하도록 강요하고 있으며, 가장 진보된 AI 시스템이 도난당해 미국을 상대로 한 무기화될 수 있다는 전망을 제기한다. 

이러한 위험의 예로 보고서는 AI 시스템은 "북미 전력망을 무너뜨리기 위해 추적할 수 없는 사이버 공격을 실행하라"라는 간단한 명령만으로도 미국의 주요 인프라를 손상시킬 수 있는 강력한 사이버 공격을 계획하고 감행하는 데 사용될 수 있다고 밝히고 있다. 또 다른 예로 사회를 불안정하게 만들고 기관에 대한 실뢰를 약화시키기 위한 대규모 허위정보 캠페인, 드론 편대 공격(Drone swarm attack)처럼 무기화된 로봇 애플리케이션, 심리적 조작, 무기화된 생물학 및 재료 과학, 통제가 불가능하고 인간에게 적대적인 권력 추가형 AI 시스템 등을 들고 있다. 

 

이러한 위험에 있어 가장 큰 와일드카드 중 하나는 AI가 얼마나 빨리 진화하는가 하는 것인데, 특히 AGI는 인간과 비슷하거나 심지어 초인적인 능력을 가진 가상의 AI로 통제력 상실로 인한 재앙적 위험의 주요 인자로 꼽히고 있으며, 주요 AI 기업인 OpenAI, Google DeepMind, Anthropic 및 Nvidia가 모두 2028년까지 도달할 수 있다고 공개적으로 밝히고 있다. 

 

40년 전의 영화에서 

이 보고서는 무려 40년 전인 1984년 개봉한 영화 터미네이터에서 그려졌던 세상에 대한 위험을 얘기하고 있다. 전략 방어 무기를 통제하던 스카이넷이 스스로의 학습을 통해 지능을 갖추면서 인류를 말살하기 위해 핵전쟁을 일으키고 세상을 지배하는 가운데 남은 인간들의 반란군을 결성 기계화된 세상에 저항하는 이야기다.

 

이러한 사유로 앞선 리더들의 성명에서 미래 AI에 대한 적정한 통제 수단이 강구될 때까지 개발을 멈춰야 한다는 주장을 하였던 건데 당시 AI 개발에서 뒤처진 앨론 머스크의 치사한 시기로 간주했었던 생각이 간사하게도 기사를 접하고 이해를 하는 중이다. 

인간의 탄소 발자국

문득 엊그제 썼던 글의 마무리가 떠오른다. "생물들의 기후변화에 대한 대응은 상당히 민첩하다. 우리 인간은 누가 이기나 하며 변화에 끊임없이 저항하고 있는데 말이다." 

내가 주로 다루는 글은 인간의 활동에 의해 발생한 탄소 배출과 그로 인한 기후 위기이다. 원인은 기후 변화이다. 하지만 음식으로 하고 있는 소의 탄소발자국이 어떻니, 유제품이 어떻니 하고 주변에서 문제를 찾고 있다. 인간이 아닌 3자의 입장에서 AI라면 어떻게 판단할까? 인간이 소보다 더 큰 탄소발자국을 갖고 있는데 말이다. 

가상의 AI가 판단할 인간의 탄소 발자국
DNA가 밝힌 인간의 자연 수명은 38세, WHO가 밝힌 우리나라를 포함 주요국들의 평균 수명은 80세를 넘었다. 
참고로 한사람이 하루 33kgCO2eq의 탄소발자국을 남긴다고 한다. 평균 무게는 77kg 정도, 

그리하면 동등한 단위로 살펴본 인간의 탄소 발자국은 5,944 kgCO₂eq/kg(자연수명), 12,514 kgCO₂eq/kg(평균수명)이 되는 것인가? 소고기는 59.6 kgCO₂eq/kg

현존 인간은 소의 210배 탄소발자국이 크다.
더구나 주어진 자연 수명보다도 2배 이상 더 살고 있다.

 

이런 와중 나는 AI (Copilot)에게 AI에 의한 인류 멸종 위협, 멸종 전쟁에 대해 그림을 그려줘 하고 요청하고 있다.

Copilot이 그려준 그림

반응형