Article

선제적 리스크 관리가 중요하다

생성형 AI의 윤리, 책임, 신뢰

Deloitte에서 제공하는 Insight는 첨부파일을 내려받으시면, 세부적인 전체 내용을 확인하실 수 있습니다.

일각에서는 생성형 인공지능(AI)을 인터넷 검색의 종말이자 인류의 일과 삶을 혁신적으로 변화시킬 수단으로 본다. 사실 이는 AI가 처음 등장했을 때부터 듣던 얘기다. 최신 애플리케이션은 으레 대중적 열광을 불러일으키는 ‘핫이슈’가 되기 마련이다.

하지만 생성형 AI는 오늘날 사용되는 대다수 AI 모델과 다르다. 일관성 있는 인간의 언어를 그럴 듯하게 흉내내는 대규모 언어 모델(LLM)이 사용자 프롬프트에 자연어 결과로 대답한다. 게다가 일부 생성형 AI 모델은 배경이 되는 수리나 기술에 대한 이해는커녕 AI에 대한 지식이 없어도 사용하는 데 전혀 문제가 없다. 

업계에서는 생성형 AI를 기업용으로 어떻게 활용할 수 있을지에 대한 관심도 뜨거워지고 있다. 모든 인지 도구가 그렇듯 생성형 AI로 얻을 수 있는 결과도 이를 어떻게 사용하느냐에 달려 있다. 그리고 리스크 관리가 바로 어떻게 사용하느냐의 영역에 포함된다. 하지만 생성형 AI의 리스크 관리에 대해서는 아직 깊은 논의가 이뤄지지 않고 있다. 기업 사용자들이 생성형 AI 애플리케이션이 내놓은 답을 신뢰할 수 있는가? 또 이를 아직 신뢰할 수 없다면, 앞으로 신뢰할 수 있도록 하기 위해 어떻게 해야 하는가? 우선적으로 이러한 질문에 대한 답을 찾아야 할 것이다.

이번 리포트에서는 AI 결과물을 신뢰하고 활용하기 위해 먼저 해결해야 할 환각과 오정보, 귀속, 투명성과 설명가능성 문제를 짚어본다.


Contacts

이메일로 인사이트를 받아보시려면 아래 주소로 이메일 주소를 기재하여 보내주시기 바랍니다.

E-mail: krinsightsend@DELOITTE.com

귀하께 도움이 되었습니까?