“챗GPT가 되지 않으니 일을 할 수가 없다.” 지난주 챗GPT에 장애가 발생한 것은 대략 3시간 남짓이었다. 길지 않은 시간이었음에도 온라인에는 많은 불만이 쏟아졌다. 사람들은 왜 작동이 되지 않는지를 물으며, 챗GPT를 어떤 방식으로 업무에 활용했었는지 이야기했다. 아직 사용 경험이 많지 않은 사람들은 “굳이 돈 주고 이용할만한 것 같지는 않다”, “뻔뻔스럽게 틀린 답변을 내놓아서 쓰지 않는다”라고 말했다. 반면, 챗GPT를 찬양하는 사람들은 “업무가 5분의 1로 줄어드는 것 같다”, “조금만 더 빨리 쓸 수 있었다면 직장에서 엄청난 대접을 받는 사람이 되었을 것 같다”라는 의견을 밝혔다. 조직에서 생성형 인공지능을 어떻게 활용해야 할지는 여전히 모호하다. 하지만 개인 수준에서 이미 인공지능은 일상에 깊이 침투해있는지도 모른다.
하버드 비즈니스 리뷰의 기사는 온라인에서 수만 개의 게시물을 필터링해서 사람들의 생성형 인공지능 사용 사례를 정리했다. 가장 많은 활용법은 아이디어 창출이었다. 이는 단순히 인공지능을 결과물을 얻는 목적으로 쓰는 것이 아니라 인간의 창의적 과정을 지원하기 위해 사용하는 것이었다. 기존 검색으로는 발견하기 어려운 상황에 활용하는 예도 있었다. “할머니가 주시던 과자 이름이 생각나지 않아 챗GPT에 도움을 요청해서 결국 해당 제품을 발견했다”라는 이용자도 있었다. 어려운 개념을 간단하게 설명하기 위해 “초등학교 5학년 수준으로 설명해줘”라고 요청하는 것도 활용 사례 중 하나였다. 지나치게 어려운 법률 문서를 편집하거나, 피해보상 목적으로 소액청구를 위한 소장 작성에 도움을 받는 일도 있었다.
이처럼 일상생활에서 생성형 인공지능 활용은 이미 널리 퍼진 것처럼 보이지만, 언론 조직에서 인공지능을 어떤 방식으로 활용해야 하는지는 여전히 논쟁거리이다. 미국의 후드라인(Hoodline)은 샌프란시스코에서 시작한 뉴스 플랫폼으로 2018년 자동화된 뉴스통신사로 재편하며 인공지능 활용 뉴스를 생성하기 시작했다. 많은 기자의 바이라인에 인공지능 표시가 되어 있지만, 실제 인물이 아닌 인공지능이 만들어낸 이름과 사진일 뿐이다. 후드라인의 CEO는 바이라인에 인공지능 생성 인물의 이름을 넣는 이유를 AI 뉴스 진행자로 발전시키려는 목표 때문이라고 설명했다. 인간 기자들이 정보 수집, 사실 확인, 소스 식별, 배경 조사 등을 담당하고 있다고 주장하지만, 기사 다수에서 오류와 사실 왜곡이 발견되었다.
언론이 가져야 하는 정확성과 공정성으로 인해 인공지능이 제한된 범위 내에서 적용되어야 한다고 이야기한다. 하지만 구체적으로 언론에서 활용 사례가 무엇인지는 합의된 방향이 모호한 것처럼 보인다. 지난달 퓰리처상을 받은 기사의 사례는 훌륭한 보도에서 인공지능을 어떤 방식으로 사용해야 하는지에 대한 실마리를 제공해준다. 올해 퓰리처상 최종 후보 45명 중 5명이 취재 및 보도 과정에서 인공지능을 활용했다고 밝혔다. 그중에서 최종 선정된 후보는 2명이다. 하나는 시카고 경찰의 실종 및 살인 사건에 대한 부실한 조사를 폭로하기 위해 머신러닝을 사용해 수천 건의 경찰 부패 기록을 분석했다. 다른 하나는 가자 지구에서 2000파운드 폭탄 크레이터를 식별하는 인공지능 도구를 사용해, 민간인 보호 구역으로 지정된 지역에서 이 폭탄이 사용된 사실을 확인했다.
퓰리처 위원회가 출품작에 인공지능 사용 현황을 공개하도록 요구한 것은 이번이 처음이었다. 언론상은 수상 기준이 되는 우수한 저널리즘의 특성을 정의하고, 언론계 전반에 모범적인 사례를 제시하여 저널리즘의 품질을 높이려는 목적을 가진다. 퓰리처 이사회는 “인공지능 사용을 제한하면 뉴스룸에서 혁신적인 기술을 사용하지 못하게 될 것으로 생각했기 때문에 인공지능 사용을 제한하는 것을 고려하지 않았습니다”라고 밝혔다. 저널리즘 일자리는 낮은 직업 안정성, 낮은 급여, 증가하는 업무량과 같은 다양한 요인으로 인해 어려움을 겪고 있다. 인공지능은 이러한 문제를 해결해 줄 것이라는 기대가 크지만, 언론사 조직 차원에서 활용은 언론이 가지는 사회적 신뢰를 해치지 않는 수준에서 고려되어야 할 것이다.