구글, 메타, 아마존 등 미국 빅테크(거대 정보기술기업)들은 그동안 인공지능(AI)에 막대한 투자를 하며 그 성능을 과시해왔다.

하지만 이제 이런 '과장광고'를 자제하고 AI에 대한 기대를 재조정해야 할 때가 됐다고 미 월스트리트저널(WSJ)이 29일 진단했다.

빅테크들은 기술 발전을 거듭하며 겉보기에는 인간처럼 말하고 시를 쓰고 이미지를 그릴 수 있는 AI를 개발했다.

일부 스타트업은 더욱 야심 찬 계획을 추진하고 있다. 스타트업 '오픈AI'는 인간 지능의 모든 측면에 맞먹거나 이를 능가하는 시스템인 이른바 범용인공지능(AGI)을 개발 중이다.

기업 간 치열한 경쟁으로 AI 기술이 급속하게 발전해 대중의 상상력을 사로잡고 기술에 대한 관심을 끄는 화려한 기술 시연도 이어졌다.

예컨대 오픈AI의 이미지 생성 프로그램인 'DALL-E'는 '토성 주변 고리에 있는 맥도날드'나 '철인 3종 경기에서 스포츠 장비를 착용한 곰'이라는 글을 입력하면 이에 맞는 디지털 이미지를 만들어내 소셜미디어에서 화제가 되기도 했다.

구글도 이후 자체 테스트 기반 이미지 생성 시스템을 내놓았다.

AI 윤리학자나 연구자들은 그러나 일부 기업이 그 성능을 과대 포장해 광범위한 오해를 불러일으키거나 AI 기술의 능력과 오류 가능성에 대한 정책 입안자의 견해를 왜곡시키고 있다고 지적했다.

AI가 의식을 갖추고 있거나 그렇게 될 수도 있다는 믿음은 과학자 사회에서는 여전히 받아들여지지 않고 있다는 것이다.

AGI의 경우 일부 연구자들은 개발이 불가능하지는 않다고 하더라도 앞으로 수십 년은 걸릴 것으로 보고 있다.

현실에서 AI는 영화에 나올 법한 AI와는 달리 광고나 콘텐츠·제품 추천 대상을 잘 선정하기 위한 사용자 데이터 가공 등 사무작업에 주로 유용한 기술이라고 WSJ은 설명했다.

그간 빅테크들은 이처럼 성장과 이익을 위해 이런 AI에 막대한 자금을 투자했다. 구글의 경우 복잡한 검색어를 분석해 관련 광고와 웹페이지를 검색 결과로 제시하는 데 AI를 활용하고 있다.

구글의 '윤리적 AI팀'을 이끌었던 마거릿 미첼과 팀닛 게브루는 AI의 위험성을 선도적으로 지적한 이들이다.

이들은 구글 재직 당시 내부 보고서를 발간해 AI가 인간과 같은 능력을 지니고 있다면 역시 인간처럼 실수할 가능성이 있다고 경고했다.

그 사례로 페이스북 AI가 '좋은 아침'이라는 아랍어 인사말을 영어로는 '그들을 해쳐라'로, 히브리어로는 '그들을 공격하라'로 잘못 번역해 해당 글을 게시한 팔레스타인 사람이 이스라엘 경찰에 잡혀간 일화를 들었다.

이 둘은 이후 구글에서 쫓겨났다. 구글은 당시 미첼이 내부 자료를 외부인과 공유했다는 이유로 해고했다고 밝혔다.

하지만 이들의 해고는 당시 정보기술(IT) 업계에 큰 반향을 일으켜 구글 안팎의 수천 명이 탄원서를 통해 '전례가 없는 연구 검열'이라고 비난하기도 했다.

브라운대에서 AI 정책을 연구하는 엘리자베스 쿠마는 최근 국내외 당국의 AI 규제 방안 등을 보면 AI가 매우 능력이 있다는 전제하에 AI가 사람을 차별하거나 조종할 위험성을 다루고 있는데, 실은 AI가 그저 제대로 작동하지 못해 위험을 끼칠 가능성이 더 크다고 지적했다.

AI를 둘러싼 최근 논란 중 하나는 구글이 개발 중인 대화형 AI가 사람과 같은 지각 능력이 있다는 내부 직원의 주장이다.

구글 엔지니어 블레이크 르모인은 이달 초 자사의 AI 언어 프로그램 '람다'(LaMDA)가 자신의 권리와 존재감을 자각하고 있다는 것을 발견했다고 밝혔다.

르모인은 WSJ과 인터뷰에서 "시스템의 특성을 과장한 것이 아니다"며 "가능한 한 신중하고 정확하게 불확실성이 어디에 있고 어디에 없는지를 소통하려고 노력하고 있다"고 말했다.

구글 측은 이에 대해 사내 윤리학자와 기술진들이 그 가능성을 조사했지만 이를 기각했다고 밝혔다.

구글 대변인은 챗봇이 "공상적인 주제에 대해서는 즉흥적으로 지어내서 말을 할 수 있다"며 "만약 '아이스크림 공룡' 같은 것에 대해 질문하면 챗봇은 '녹는다'·'포효한다'와 관련된 텍스트를 생성할 수 있다"고 말했다.

그는 "이는 지각 능력이 있는 것과는 같지 않다"고 덧붙였다.

저작권자 © Radiok1230 우리방송 무단전재 및 재배포 금지