생성형 AI 모델은 엄청난 에너지 사용으로 탄소배출 유발
정확한 탄소배출 자료 없어 업계에 친환경 주문 커질 듯
일론 머스크 등 일부 기업인과 전문가들 "개발 일시 중단" 요구

챗GPT 같은 생성형 AI를 둘러싼 흥분이 가라앉으면서 이를 둘러싼 환경 및 사회 문제가 제기되고 있다. 
챗GPT 같은 생성형 AI를 둘러싼 흥분이 가라앉으면서 이를 둘러싼 환경 및 사회 문제가 제기되고 있다. 

[ESG경제=이진원 기자] 작년 11월 마이크로소프트가 투자한 오픈AI가 대화형 인공지능(AI) 챗봇 챗GPT를 선보이자 AI가 바꿔놓을 세상에 대한 기대감으로 전 세계가 흥분했다. 이것이 IT는 물론 제조와 유통, 의료업계에 이르기까지 거의 전 산업 분야에서 엄청난 혁신을 몰고 올 ‘게임 체인저’가 될 것이란 전망이 확산했다.

그러자 곧바로 구글도 AI 챗봇 바드(Bard)를 선보였다. 한국의 네이버와 중국의 바이두, 러시아 얀덱스 등 글로벌 정보기술(IT) 업체들이 AI 무한 경쟁에 뛰어들었다.

초기 흥분 가라앉자 제기되는 문제들 

하지만 이런 흥분도 잠시, AI 챗봇이 가져다줄 긍정 측면만큼이나 이것이 초래할 부정적 여파에 대한 지적과 경고가 잇따라 제기되고 있다.

대표적인 사례가 3월 29일(현지시간) 일론 머스크 테슬라 최고경영자(CEO)를 포함한 주요 기업인과 AI 전문가들이 AI 기술이 세상에 미칠 영향을 우려하며 "개발을 일시 중단해야 한다"고 요구한 것이다.

비영리단체인 '생명의 미래연구소(FLI)'는 머스크와 애플 공동창업자 스티브 워즈니악 등 AI 전문가들과 기업인들이 서명한 서한을 공개했다. 이 서한에는 "현재의 AI 시스템은 일반 작업에서 인간과 경쟁하고 있다는 점을 자문해 봐야 한다. 정말 기계가 정보 채널을 선전과 허위로 채우도록 내버려 두고, 모든 일을 자동화해야 하는가. 우리 문명에 대한 통제력을 잃을 위험을 감수해야 하는가"라고 지적을 담았다.

다음 날인 30일에는 미 비영리단체 '인공지능 및 디지털 정책센터' (Center for AI and Digital Policy·CAIDP)가 연방거래위원회(FTC)에 오픈AI를 고발했다. 이유는 GPT-4의 상업적 출시가 AI의 불공정하고 기만적인 영업행위를 금지한 FTC법과 AI에 대한 지침을 위반했다는 것이다. CAIDP는 GPT-4가 편향적이고 기만적이며 개인정보보호와 공공안전에 위협이 된다고 주장했다.

이어 31일에는 이탈리아 데이터 보호청이 개인정보 보호 우려 등을 이유로 챗GPT 접속을 일시 차단했다. 챗GPT가 알고리즘 학습을 위한 목적으로 개인정보를 대량으로 수집하고 저장하는 행위를 정당화할 법적 근거가 없다는 이유로 들었다.

ESG 관점서도 논란거리 

이처럼 AI 챗봇의 대표주자인 챗GPT를 둘러싼 논란이 계속 고개를 드는 가운데 ESG 관점에서도 챗GPT는 출시 직후부터 논란거리였다. ESG의 3대 요소인 환경·사회·지배구조 중 ‘환경’ 관점에서 제기하는 우려가 특히 논란에 불을 지폈다.

 AI 챗봇을 돌리려면 엄청난 양의 전기를 소모한다는 데서 논란은 비롯됐다. 전기 소모가 많다는 것은 전력 생산을 위해 지구 온난화의 주범이 되는 탄소를 그만큼 많이 배출할 수 있다는 뜻이기 때문이다. 재생에너지 생산이 늘고 있긴 하지만 지구촌 전력 생산의 절반 이상은 여전히 화석연료에 의존한다.  

챗GPT 제조사인 오픈AI뿐만 아니라 마이크로소프트,구글 모두 작업 수행에 필요한 ‘학습’을 시키기 위해 데이터를 분석하는 한편, AI 모델(알고리즘)을 훈련하는 용도로 전 세계 데이터센터 내에 설치된 서버에서 수천 개의 반도체에 의존하는 클라우드 컴퓨팅을 활용해야 한다.

그런데 AI 모델을 훈련시키기 위해서는 다른 어떤 형태의 컴퓨팅 모델보다 더 많은 에너지가 소모된다. 단 하나의 AI 모델을 훈련시키는 데도 미국의 100개 가구가 1년  동안 써야 하는 전기보다 더 많은 전기가 필요한 것으로 알려졌다. 

더군다나 챗GPT의 성공으로 다른 기업들도 이와 경쟁할 자체적인 AI 챗봇이나 시스템을 준비 중이라 경쟁이 치열해지고 있다. 이는 생성형 AI 분야에서 지금보다 훨씬 더 많은 전기가 사용되고 그로 인해 탄소 배출량이 늘어날 수밖에 없다는 걸 의미한다. 

환경 문제를 감추는 '더러운 비밀' 엄존 

문제가 여기서 끝나는 것이 아니다. 사용자들에게 더 풍부하고 정확한 검색 경험을 제공하기 위해서 생성형 AI를 검색 엔진에 통합시키려는 구글과 마이크로소프트 등의 노력도 결국 탄소 배출량 증가로 이어질 수밖에 없다는 지적이다. 

이를 위해 컴퓨팅 파워(처리능력)를 훨씬 더 많이 써야 하니 결국 필요한 전기 사용량만큼이나 탄소 배출량도 같이 늘어나게 된다는 논리다. 생성형 AI를 단독 제품 형태로 사용하는 것과 그것을 검색엔진에 통합해서 쓰는 건 또 다른 문제다.

이 같은 문제에 대해 기술 전문지인 와이어드(Wired)는 지난 ‘생성형 AI 경쟁 뒤의 더러운 비밀(The Generative AI Race Has a Dirty Secret)’이라는 제목의 기사에서 생성형 AI를 접목한 검색 과정의 환경 부작용을 기술기업들이 생성형 AI의 성과 뒤에 숨겨놓고 드러내고 싶지 않은 ‘더러운 비밀’이라고 비판했다.

와이어드는 생성형 AI 같은 대형 언어모델을 검색엔진에 통합할 경우 검색 1건당 지금보다 컴퓨팅 파워가 최대 5배 더 늘어나면서 엄청난 양의 탄소 배출이 불가피하다는 전문가들 의견을 자세히 소개했다.

와이어드가 인터뷰한 앨런 우드워드 영국 서리대학교 사이버보안학과 교수는 “이미 인터넷 콘텐츠 인덱싱과 검색에만 해도 엄청난 자원이 필요한데, AI를 검색에 통합시키는 건 또 다른 문제”라며 “저장과 효율적 검색 외에도 상당한 처리 능력이 요구된다”고 경고했다.

정확한 자료의 부재 

다만 아직까지 생성형 AI가 얼마나 많은 양의 탄소를 배출함으로써 환경에 악영향을 줄지 정확한 판단이 힘들다는 분석도 나온다. 블룸버그 통신은 9일 “업계의 발전 속도가 너무나 빠르지만 이런 환경적 영향에 대한 자료가 거의 없어 이 분야에서 정확히 얼마나 많은 전기를 사용하고 탄소를 배출하며, 또 이 배출된 탄소 중 얼마만큼을 AI 탓으로 돌릴 수 있을지 제대로 알 수 없다”고 지적했다.

어떤 종류의 발전소를 사용하느냐에 따라서도 탄소 배출량에 큰 차이가 날 수 있다. 예를 들어, 석탄이나 천연가스 공장에서 생산된 전기를 끌어다가 쓰는 데이터센터는 태양광이나 풍력을 통해 얻은 전기를 쓰는 데이터센터보다 탄소 배출량이 훨씬 적다. 

연구원들이 앞서 언급했듯이 하나의 AI 모델에서 나올 수 있는 배출량은 집계가 가능하고, 일부 기업들이 자신들의 에너지 사용량에 대한 데이터를 제공하기도 하지만 이 분야의 에너지 사용 총량을 추정하기는 힘들다고 이 통신사는 전했다.

실제로 자연어 처리 스타트업인 허깅페이스(Hugging Face)의 사샤 루치오니(Sasha Luccioni) 연구원은 오픈AI의 챗GPT-3의 경쟁 AI 모델인 블룸(Bloom)의 탄소 배출량을 정량화한 논문을 쓴 후 챗GPT의 배출량도 추정해 보려고 애썼으나 실패했다. 공개적으로 관련 자료를 구할 수 없어서 “아무것도 알 수 없다”는 푸념을 루치오니 연구원의 털어놓을 수 밖에 없었다.

투명한 정보 공개 필요

전문가들은 따라서 챗GPT 같은 생성형 AI와 둘러싼 환경적 영향을 제대로 파악하려면 이를 개발하는 기업들이 AI 모델의 에너지 사용량과 탄소 배출량에 대해 더 투명한 정보를 공개해줘야 한다고 입을 모은다.

생성형 AI 개발에 뛰어든 기업들인 마이크로소프트와 구글뿐만 아니라 미국 최대 클라우드 기업인 아마존이 모두 탄소 네거티브(carbon negative·이산화탄소를 배출량 이상으로 흡수해 실질적 배출량을 마이너스로 만드는 것)나 탄소 중립을 약속하며 ESG경영을 실천하는 기업들이다. 

 

저작권자 © ESG경제 무단전재 및 재배포 금지