출시 두 달 만에 월 사용자 1억 명을 돌파한 대화형 인공지능(AI) '챗GPT(ChatGPT)'에 대한 관심이 연일 뜨겁다. 개인과 기업, 공공기관 할 것 없이 챗GPT를 효과적으로 이용하기 위한 방법들을 모색 중이다.
하지만 시민 교육과 법제화 보다 앞선 기술의 발전 속도 탓에 그 이면의 문제들도 여전히 논란거리다.
AI가 만들어낸 결과물은 인간이 만든 것, 혹은 진짜와 구분할 수 없을 정도로 발달됐지만 그와 동시에 허위 정보를 사실인 것처럼 유포하는 가짜뉴스 문제, 딥페이크 등 생성형 인공지능의 악용 및 오남용 문제, 학습 데이터 활용 및 유출 문제 등 쟁점이 산적해 있다.
이 같은 우려 속에 해외에서는 지난 3월 29일 미국의 비영리 단체 ‘퓨처 오브 라이프 인스티튜트(Future of Life Institute)’가 챗GPT와 같은 거대 AI 모델의 새로운 시스템 개발을 유예하라며 공개서한을 발표하기도 했다.
딥러닝의 창시자로 불리는 제프리 힌튼 캐나다 토론토대 교수는 AI의 위험성을 경고하며 10년 넘게 몸담았던 구글을 떠났다. 그는 AI를 핵무기에 비유하며 뉴욕타임스와의 인터뷰에서 “인공지능이 분석하는 방대한 양의 데이터에서 예상치 못한 행동을 학습하는 경우가 많기 때문에 미래 버전의 기술이 인류에 위협이 될 수 있다”고 말했다.
각국 정부에서도 AI 통제를 위한 논의가 이어지고 있다. EU(유럽연합)는 올해 법안 통과를 목표로 AI 관련법을 적극 추진 중이다. 지난 16일 개최된 미국 의회 청문회에서는 챗GPT를 개발한 샘 올트먼 오픈AI 최고경영자(CEO)조차 “AI가 세상에 심각한 피해를 입히지 않도록 해야 한다”고 나섰다.
국내에서는 삼성전자가 업무 중 직원들이 챗GPT 등의 챗봇 프로그램을 활용하지 못하도록 조치했다. 결함이 있는 데이터베이스를 수리하는데 도움을 얻고자 기밀 소스 코드를 업로드 하거나 빠른 회의록 작성을 위해 전체 회의를 공유하는 등 직원들이 챗GPT를 활용한 것이 문제가 됐다. AI 개발자는 제출된 정보를 사용해 모델을 교육할 수 있기 때문이다.
국내선 챗GPT 적극 수용
하지만 국내 분위기는 사뭇 다르다. 국회는 챗GPT 관련 토론회를 잇따라 개최하고 있고 일각에서는 현장에서 챗GPT를 적극 이용하려는 움직임도 분주하다.
경기도는 지난 3월 행정1부지사를 단장으로 하는 전문가 싱크탱크 그룹 구성을 비롯해 ▲도민기회 ▲산업기회 ▲행정혁신 등 실무 분과로 이뤄진 경기지피티 추진계획(로드맵)을 발표한 바 있다. 오는 6월, 경기도 인공지능 산학연관 협의체 출범도 앞두고 있다.
본지는 경기도청 AI빅데이터산업과 이수재 과장에게 경기도청의 챗GPT 활용 현황에 대해 물었다. 그는 지난 3일 전국 최초로 개최한 챗GPT 활용방안 공모전 외에, 내부적으로도 활용방안을 공모한 결과 적용 분야를 3가지 정도로 추려 검토 단계에 있다고 답했다.
정보 유출, 윤리적 문제 등 생성형 인공지능의 활용 문제점들에 대해서는 어떻게 대비할지 묻는 말에는 “윤리가이드가 많이 나와 있는 만큼 검토 단계에서 내부 전문가들과 여러 자료를 충분히 살펴보려 한다”면서도 “가이드라인이 너무 많아 오히려 혼선이 있을 수 있다”라고도 덧붙였다.
그러면서 이수재 과장은 “대외적으로는 경기도 조례 등 실질적으로 법령화할 부분들에 대해서도 연구 작업이 진행 중”이라고 했다. 그는 “행정안전부에서 낸 가이드라인에 맞춰 준비 중이지만 사업을 진행하며 핀포인트 규제 상황이라던지, 지역화 관점에서 세부적으로 필요한 요소들이 있다면 추가해 나갈 계획이다”라고 밝혔다.
용인특례시도 지난 20일 공직자 대상 ‘ChatGPT 업무활용 교육’을 실시하는 등 기술 활용에 대해 적극적인 모습을 보였다. 다만, 용인특례시 기획조정실 정보통신과의 최정미 정보기획팀장은 본지와의 전화 인터뷰에서 “현재는 기초 교육 단계로 효율적인 공무 수행을 위한 활용 방안과 방향성을 제시하는 수준”이라며 “챗GPT의 직접 활용은 정책기획과나 인사교육팀 등에서 검토를 거쳐 각 부서별 업무 내용에 따라 신중하게 진행돼야 할 것”이라 말했다.
생성형 인공지능, ‘제대로’ 쓰려면
철학박사이자 윤리교육과 교수, AI윤리인증·교육연구센터 센터장 등을 겸임하고 있는 변순용 교수는 개인이나 관공서 모두 챗GPT 자체의 한계나 장단점을 파악하고 활용해야 한다고 말했다. 그러면서 질문을 ‘잘’ 던질 것, 만들어진 결과(답변)를 판정할 수 있어야 함을 강조했다.
변순용 교수는 “모기업 임원의 정보 유출 사례를 생각하면 정부기구, 공공기관의 업무일수록 더더욱 데이터 유출 등에 주의해야 할 것”이라며 “가이드라인이나 규정을 '안에서' 정해야 한다. 내부적으로 충분히 검토하고 가이드라인을 만드는 과정이 필요할 것”이라 말했다.
그는 챗GPT 같은 생성형 인공지능의 경우, 우리가 원하는 것을 얻을 수 있는 '제대로 된 질문'이 어떤 것인지를 명확히 해야 한다고도 했다. 단순하게 물어볼수록 효율성은 더 높아진다. 닫힌 질문과 열린 질문 중, 열린 질문일수록 오정보가 나올 가능성이 크다. 오히려 선택지를 주는 식의 아주 닫힌 질문일수록 원하는 정보를 얻을 수 있는 경우가 더 많다는 것이 그의 설명이다. 프롬프트 엔지니어들의 말에 의하면 여기에 맥락까지 더해졌을 때 대답 효율성은 더 높아진다.
하지만 “사람들이 그런 것에 너무 익숙해져 버리면 고차원적 질문과 사고를 할 수 있는 능력이 점점 줄어들 것”을 우려하기도 했다. 사용자가 진위검증 및 판정을 내릴 수 없다면 끌려다닐 수밖에 없다는 것이다.
그는 “알파고에 이어 챗GPT가 큰 충격으로 다가왔지만 그만큼 질문을 수행하고 답변하는 것도 그렇게 고급 능력이 아닌 것”이라며 “활용 자체를 막는 것은 러다이트 운동과 다를 바가 없다. 다만 우리가 얻을 수 있는 것과 잃을 수 있는 것에 대해 잘 비교하는 것이 중요하다”라고 말했다.
jnews@industryjournal.co.kr
저작권자(c)산업종합저널. 무단전재-재배포금지