윙배너
윙배너

상반되는 챗GPT 수용도, 어디까지 믿어도 될까

“활용 제재는 러다이트운동과 다를 바 없어… 잘 알고 써야”

출시 두 달 만에 월 사용자 1억 명을 돌파한 대화형 인공지능(AI) '챗GPT(ChatGPT)'에 대한 관심이 연일 뜨겁다. 개인과 기업, 공공기관 할 것 없이 챗GPT를 효과적으로 이용하기 위한 방법들을 모색 중이다.

하지만 시민 교육과 법제화 보다 앞선 기술의 발전 속도 탓에 그 이면의 문제들도 여전히 논란거리다.

AI가 만들어낸 결과물은 인간이 만든 것, 혹은 진짜와 구분할 수 없을 정도로 발달됐지만 그와 동시에 허위 정보를 사실인 것처럼 유포하는 가짜뉴스 문제, 딥페이크 등 생성형 인공지능의 악용 및 오남용 문제, 학습 데이터 활용 및 유출 문제 등 쟁점이 산적해 있다.

상반되는 챗GPT 수용도, 어디까지 믿어도 될까 - 산업종합저널 동향

이 같은 우려 속에 해외에서는 지난 3월 29일 미국의 비영리 단체 ‘퓨처 오브 라이프 인스티튜트(Future of Life Institute)’가 챗GPT와 같은 거대 AI 모델의 새로운 시스템 개발을 유예하라며 공개서한을 발표하기도 했다.

딥러닝의 창시자로 불리는 제프리 힌튼 캐나다 토론토대 교수는 AI의 위험성을 경고하며 10년 넘게 몸담았던 구글을 떠났다. 그는 AI를 핵무기에 비유하며 뉴욕타임스와의 인터뷰에서 “인공지능이 분석하는 방대한 양의 데이터에서 예상치 못한 행동을 학습하는 경우가 많기 때문에 미래 버전의 기술이 인류에 위협이 될 수 있다”고 말했다.

각국 정부에서도 AI 통제를 위한 논의가 이어지고 있다. EU(유럽연합)는 올해 법안 통과를 목표로 AI 관련법을 적극 추진 중이다. 지난 16일 개최된 미국 의회 청문회에서는 챗GPT를 개발한 샘 올트먼 오픈AI 최고경영자(CEO)조차 “AI가 세상에 심각한 피해를 입히지 않도록 해야 한다”고 나섰다.

국내에서는 삼성전자가 업무 중 직원들이 챗GPT 등의 챗봇 프로그램을 활용하지 못하도록 조치했다. 결함이 있는 데이터베이스를 수리하는데 도움을 얻고자 기밀 소스 코드를 업로드 하거나 빠른 회의록 작성을 위해 전체 회의를 공유하는 등 직원들이 챗GPT를 활용한 것이 문제가 됐다. AI 개발자는 제출된 정보를 사용해 모델을 교육할 수 있기 때문이다.

국내선 챗GPT 적극 수용
하지만 국내 분위기는 사뭇 다르다. 국회는 챗GPT 관련 토론회를 잇따라 개최하고 있고 일각에서는 현장에서 챗GPT를 적극 이용하려는 움직임도 분주하다.

경기도는 지난 3월 행정1부지사를 단장으로 하는 전문가 싱크탱크 그룹 구성을 비롯해 ▲도민기회 ▲산업기회 ▲행정혁신 등 실무 분과로 이뤄진 경기지피티 추진계획(로드맵)을 발표한 바 있다. 오는 6월, 경기도 인공지능 산학연관 협의체 출범도 앞두고 있다.

본지는 경기도청 AI빅데이터산업과 이수재 과장에게 경기도청의 챗GPT 활용 현황에 대해 물었다. 그는 지난 3일 전국 최초로 개최한 챗GPT 활용방안 공모전 외에, 내부적으로도 활용방안을 공모한 결과 적용 분야를 3가지 정도로 추려 검토 단계에 있다고 답했다.

정보 유출, 윤리적 문제 등 생성형 인공지능의 활용 문제점들에 대해서는 어떻게 대비할지 묻는 말에는 “윤리가이드가 많이 나와 있는 만큼 검토 단계에서 내부 전문가들과 여러 자료를 충분히 살펴보려 한다”면서도 “가이드라인이 너무 많아 오히려 혼선이 있을 수 있다”라고도 덧붙였다.

그러면서 이수재 과장은 “대외적으로는 경기도 조례 등 실질적으로 법령화할 부분들에 대해서도 연구 작업이 진행 중”이라고 했다. 그는 “행정안전부에서 낸 가이드라인에 맞춰 준비 중이지만 사업을 진행하며 핀포인트 규제 상황이라던지, 지역화 관점에서 세부적으로 필요한 요소들이 있다면 추가해 나갈 계획이다”라고 밝혔다.

용인특례시도 지난 20일 공직자 대상 ‘ChatGPT 업무활용 교육’을 실시하는 등 기술 활용에 대해 적극적인 모습을 보였다. 다만, 용인특례시 기획조정실 정보통신과의 최정미 정보기획팀장은 본지와의 전화 인터뷰에서 “현재는 기초 교육 단계로 효율적인 공무 수행을 위한 활용 방안과 방향성을 제시하는 수준”이라며 “챗GPT의 직접 활용은 정책기획과나 인사교육팀 등에서 검토를 거쳐 각 부서별 업무 내용에 따라 신중하게 진행돼야 할 것”이라 말했다.

생성형 인공지능, ‘제대로’ 쓰려면
철학박사이자 윤리교육과 교수, AI윤리인증·교육연구센터 센터장 등을 겸임하고 있는 변순용 교수는 개인이나 관공서 모두 챗GPT 자체의 한계나 장단점을 파악하고 활용해야 한다고 말했다. 그러면서 질문을 ‘잘’ 던질 것, 만들어진 결과(답변)를 판정할 수 있어야 함을 강조했다.

변순용 교수는 “모기업 임원의 정보 유출 사례를 생각하면 정부기구, 공공기관의 업무일수록 더더욱 데이터 유출 등에 주의해야 할 것”이라며 “가이드라인이나 규정을 '안에서' 정해야 한다. 내부적으로 충분히 검토하고 가이드라인을 만드는 과정이 필요할 것”이라 말했다.

그는 챗GPT 같은 생성형 인공지능의 경우, 우리가 원하는 것을 얻을 수 있는 '제대로 된 질문'이 어떤 것인지를 명확히 해야 한다고도 했다. 단순하게 물어볼수록 효율성은 더 높아진다. 닫힌 질문과 열린 질문 중, 열린 질문일수록 오정보가 나올 가능성이 크다. 오히려 선택지를 주는 식의 아주 닫힌 질문일수록 원하는 정보를 얻을 수 있는 경우가 더 많다는 것이 그의 설명이다. 프롬프트 엔지니어들의 말에 의하면 여기에 맥락까지 더해졌을 때 대답 효율성은 더 높아진다.

하지만 “사람들이 그런 것에 너무 익숙해져 버리면 고차원적 질문과 사고를 할 수 있는 능력이 점점 줄어들 것”을 우려하기도 했다. 사용자가 진위검증 및 판정을 내릴 수 없다면 끌려다닐 수밖에 없다는 것이다.

그는 “알파고에 이어 챗GPT가 큰 충격으로 다가왔지만 그만큼 질문을 수행하고 답변하는 것도 그렇게 고급 능력이 아닌 것”이라며 “활용 자체를 막는 것은 러다이트 운동과 다를 바가 없다. 다만 우리가 얻을 수 있는 것과 잃을 수 있는 것에 대해 잘 비교하는 것이 중요하다”라고 말했다.
임지원 기자
jnews@industryjournal.co.kr


0 / 1000


많이 본 뉴스

바이오 인공장기, 의료 혁명 이끌까… 심장이식 대기자들에게 희망

최근 심근경색으로 쓰러져 병원에 긴급 후송된 환자는, 쓰러진 지 5분이 넘은 바람에 심장이 멈췄다. 이 환자는 보조장치인 ECMO(체외막 산소화장치)를 사용하여 연명했지만, 심장은 결국 10일 후에야 다시 뛰었고, 그 기능은 70%에도 미치지 못했다. 결국 이 환자는 사망에 이르게 되었다.

2025년 소비 시장 5대 키워드 'S.N.A.K.E' 제시

대한상공회의소(이하 대한상의)가 2025년 소비 시장을 이끌 5대 키워드로 ‘S.N.A.K.E’를 선정하며, 경기 둔화와 변화하는 환경 속에서 유통 기업들이 생존 전략을 강화해야 한다고 강조했다. 대한상의는 7일 발표한 ‘2025 유통산업 백서’를 통해 S.N.A.K.E(Survival, Next

이차전지 제조장비, 차세대 기술로 2030년 50조 원 시장 전망

이차전지 제조장비 산업이 2030년까지 50조 원 규모로 성장할 것이라는 전망이 제기됐다. 특히 건식 전극 공정과 전고체 배터리가 차세대 핵심 기술로 주목받으며, 관련 기술 개발과 글로벌 시장 주도권 확보를 위한 정책적 지원이 요구된다. 한국기계연구원(이하 기계연)은 최근 발간한 ‘기계

급증하는 고령층 취업… 일할 의지는 넘치지만 일자리는 부족

대한민국이 초고령사회로 빠르게 진입하면서 60대 이상 고령층의 노동시장 참여가 급증하고 있다. 2025년에는 65세 이상 인구 비중이 20.6%에 달해 초고령사회에 진입할 전망이며, 이에 따라 60대 이상의 일자리 문제가 사회적 이슈로 부상하고 있다. 2024년 9월 기준, 60세 이상 취업자

DPP 도입, 국내 기업에 도전이자 기회

2027년부터 EU가 디지털제품여권(DPP) 제도를 순차적으로 의무화하면서, 국내 기업들의 선제적 대응 필요성이 대두되고 있다. 대한상공회의소는 5일 'EU 디지털제품여권(DPP) 동향 및 GS1 국제표준 기반 대응 가이드라인'을 발표하며, DPP 정책 동향과 대응 방안을 제시했다. 디지털제품여권(DP






산업전시회 일정


미리가보는 전시회