전체기사

2025.09.09 (화)

  • 구름많음동두천 29.3℃
  • 맑음강릉 33.1℃
  • 구름많음서울 29.7℃
  • 구름조금대전 30.6℃
  • 구름조금대구 30.8℃
  • 맑음울산 31.3℃
  • 구름조금광주 30.5℃
  • 맑음부산 31.2℃
  • 맑음고창 31.0℃
  • 맑음제주 31.5℃
  • 구름많음강화 28.8℃
  • 구름조금보은 27.9℃
  • 맑음금산 29.4℃
  • 구름조금강진군 30.8℃
  • 맑음경주시 31.7℃
  • 구름조금거제 30.6℃
기상청 제공

경제

【커버스토리】 잘못 학습한 ‘AI’의 신뢰·윤리적 쟁점 대안은?

URL복사

사회·윤리적 쟁점 지속해서 논의가 필요
NIA, ‘검색증강생성기술’ 환각 현상에 주목
Open Ko-LLM,추론·상식 환각 방지 능력 등 평가

 

 

[시사뉴스 홍경의 기자] 인간과 인공지능(AI)이 공존하는 시대에 살고 있다. 사람이 하는 질문 의도와 맥락을 AI가 이해하며 연속적인 대화를 할 수 있을 정도로 기술적 발전을 이뤄왔지만 이에 대한 도입 및 활용에 따른 기대와 우려의 목소리가 공존한다. 특히, 사회·윤리적으로 예상하지 못한 부작용을 초래하고 있다.

 

 

‘AI’ 의 부작용과 문제점…사회적 혼란 야기


국내서 AI 윤리 문제가 수면 위로 떠오른 대표적인 사례는 AI 스타트업 스캐터랩가 개발한 AI 챗봇 ‘이루다’ 사태를 꼽을 수 있다. 이루다는 지난 2020년 12월 말 20대 여대생을 표방하며 공개와 동시에 이목을 끌었으나 성소수자나 장애인에 대한 차별과 혐오 발언, 개인정보 유출 등 논란에 한 달도 안 돼 퇴출당한 바 있다. 이 회사는 2년 뒤 논란이 된 문제를 개선하고 ‘관계 지향형 AI 챗봇’ ‘이루다2.0’을 선보이기도 했다.


정보의 부정확성으로 인한 가짜뉴스, AI 보고서 대필, 창작물 저작권 논란 등 각종 사회적 혼란을 동반할 수 있다는 경고의 목소리도 존재한다. 이미 AI 오남용 사례가 교육·출판·미디어 등 우리 사회 곳곳에서 드러나고 있다.


최근 한 일본인이 네이버의 AI 번역기 ‘파파고’로 한국의 웹툰을 일본어로 번역해 ‘한국문학 번역상 웹툰 부문 신인상’을 수상한 사실이 알려져 논란이 됐고, 국내의 한 국제학교에서는 일부 학생이 챗GPT를 활용해 작성한 영문 에세이를 제출했다가 ‘전원 0점’ 처리된 사례도 나왔다. 이 같은 대필·표절 우려가 교육계 전반으로 확산하고 있다.


최근 중국에서도 중국 최대 포털에서 내놓은 인공지능에 윤동주 시인의 국적을 물었더니 중국인이라는 대답이 돌아온 경우가 발생했다. 여기에 더해 ‘안중근 의사가 속한 민족’을 챗봇에 물었더니 ‘중국 조선족’이라고 답하기도 했다. 물론 ‘AI 관리 방안’에 따라 사회주의 가치에 부합한 챗봇만 중국은 승인해 주고 있어 나온 결과이기도 하다.

 

 

AI 경제적 가치 창출 속 인간 존재 가치 흔들리나


AI는 거의 모든 산업에 적용돼 복잡한 문제를 해결하고, 생산성·효율성 증가, 비용 절감 등 경제적 가치를 창출할 것으로 기대되고 있지만, 이러한 AI 기술 발전 속도에 대해 인간의 일자리 소멸, 사생활 제약, 인간성에 대한 근본적인 위협 등과 같은 부작용을 우려하는 시각도 상당하다. 챗GPT처럼 단순·반복적인 문서 작성이나, 요약, 정보 검색 등 일정 영역에선 사람보다 빠르게 업무를 수행할 수 있어서다. 이는 챗GPT도 AI가 사람의 일자리를 위협하는 것은 아니지만, 일정한 종류의 일자리에 대해서는 영향을 미칠 수 있다고 인정하는 부분이기도 하다.

 

 

신뢰하는 AI 실현을 위해 발생 가능한 사회·윤리적 쟁점을 지속해서 논의해야 할 시점이다. 이에 유럽연합(EU)에서는 지난 2019년 4월 ‘신뢰할 수 있는 AI를 위한 윤리 지침’을 제시했고, 2021년 4월 세계 최초로 ‘인공지능 법안(Artificial Intelligence Act)’을 발표했다.


우리 정부도 지난 2020년 12월 과학기술정보통신부와 정보통신정책연구원이 마련한 ‘AI 윤리기준’을 심의 의결했다. 지난 6월 과학기술정보통신부가 AI 서비스 기업들의 윤리 의식 확산을 위해 연속 산업현장을 찾아 AI 윤리·신뢰성 준수의 중요성을 전파했다. 지난 9월 자체 오픈 대규모언어모델(LLM)을 구축한 업스테이지가 정부와 함께 미국 워싱턴 국무부에서 개최된 ‘한미 ICT 정책 포럼’에 참여하여 AI 윤리 및 신뢰성 관련 발표를 진행하기도 했다.

 

 

[인터뷰] 이용진 한국지능정보사회진흥원(NIA) 지능데이터본부 총괄 본부장

 

 

 

NIA 소개해 준다면(비전·목표·전략)


한국지능정보사회진흥원(NIA)은 설립된 지 올해로 35년이 된 공공기관으로, 공공과 민간의 디지털 기술의 종합 활용을 촉진하고 국민과 정부의 디지털 능력을 향상하기 위해 설립된 디지털 전문기관이다. 정부의 디지털 전환을 이끌어가고 정책 수립, 실행을 지원하는 ‘싱크탱크’ 역할하고 있다. 특히, 국가 디지털 전문기관으로 윤석열 정부의 핵심 국정과제인 디지털플랫폼 정부를 조기 구현하고 주요 사회 현안 해결과 AI, 빅데이터, 양자컴퓨팅 등 미래를 대비하기 위해 노력하고 있다. 

 

그뿐만 아니라 NIA는 민간의 초거대 인공지능(AI) 개발・고도화를 지원하기 위해 초거대AI 개발에 필요한 양질의 텍스트 데이터 구축 사업을 추진하고 있다. ‘23년 2,805억원을 투입하여, 150종 데이터 구축 공모를 통해 초거대 인공지능 등 거대 언어모델 지원을 위한 말뭉치 데이터 34종과 문화·관광, 교육, 법률 등 다양한 산업 분야별 데이터를 구축하고 있다. 향후 산업계 수요를 기반으로 분야별 특화 학습용 데이터와 비영어권 시장 공략을 위한 동남아・중동 등 언어 데이터를 2027년까지 200종(책 15만권 분량) 구축할 계획이다. 구축된 데이터는 AI 허브 사이트를 통해 개방하고 있으며, 중소벤처, 연구자, 학생 등 누구나 데이터를 활용할 수 있도록 지원하여 인공지능 산업 활성화에 기여하고 있다.

 

 

챗봇 기술의 빠른 발전이 가져온 문제점은


사람과 사람이 직접적으로 소통할 경우 감정, 상황 등을 충분히 전달할 수 있지만, 챗봇 기술을 이용할 경우 고객의 요구를 충분히 이해하지 못하거나 고객의 감정에 민감하게 반응하지 못할 수 있다. 또한, 훈련데이터에 편향이 있거나 잘못된 정보로 챗봇을 학습시킬 경우 편향되거나 윤리적으로 문제가 있는 답변을 할 수 있는 문제점이 있다. 챗봇은 정보를 검색하고 제공하는데 인터넷 등에서 얻은 정보를 활용할 수 있으나, 그 정보의 정확성을 보장하기 어려울 수 있다. 하지만 이러한 문제점들은 AI 생태계에 참여하고 있는 많은 기업, 연구자들이 노력해서 해결해 나가고 있다.

 

 

생성형 인공지능(AI)의 가장 큰 문제점으로 꼽히는 ‘환각 현상’에 대한 대안은


많은 연구자와 기업에서는 AI가 거짓을 진짜처럼 답하는 환각 현상(Hallucination)을 줄이기 위해 연구와 기술을 개발하고 있다. 여러 가지 방법들이 활발히 제안되고 있으며, 최근에는 검색증강생성기술(RAG, Retrieval-Augmented Generation) 등이 환각 현상을 줄이기 위해 주목받고 있다. 이는 환각 현상을 줄이기 위해 질문과 관련된 참고 자료를 LLM에 알려주고 제공된 자료를 기반으로 답변하게 함으로써 LLM의 단점을 보완하고 환각 현상을 줄이는데 성과를 보이고 있다.

 

 

Open Ko-LLM’에 대해 설명해 준다면


NIA는 한국어 LLM 생태계 활성화 및 글로벌 경쟁력 강화를 위해 지난 9월 말부터 AI 스타트업 업스테이지, KT Cloud, 고려대와 협력하여 오픈소스 기반의 한국어 LLM 리더보드를 오픈하고 운영 중이며 2개월 만에 SK텔레콤, KT, 마음AI, 포티투마루, ETRI 등 다양한 기업 및 학계에서 약 300여개 모델이 리더보드에 참여하는 등 국내 LLM 모델 생태계에 바람을 일으키고 있다. 오픈 리더보드에서는 추론, 상식, 언어이해력, 환각 방지 능력 등을 종합적으로 평가하고 한국어 상식 생성 능력도 평가하고 있다. 아직 영어 모델인 오픈 AI의 GPT-3.5, 메타의 Llama 등 비해 성능이 높진 않으나 지속적인 경쟁으로 한국어 LLM 성능이 개선에 건강한 자극제가 될 것으로 기대하고 있고 NIA에서는 LLM을 성능을 평가할 수 있는 다양한 데이터셋을 개발할 계획이다. 

 

 

저작권자 Ⓒ시사뉴스
제보가 세상을 바꿉니다.
sisa3228@hanmail.net





배너

커버&이슈

더보기
【커버스토리】 [한미 정상회담] 이 대통령 “두터운 신뢰…굳건한 한미동맹 확인"
[시사뉴스 강민재 기자] 이재명 대통령은 지난달 25일(현지시간) 도널드 트럼프 미국 대통령과 미국 워싱턴DC에서 첫 정상회담을 열었다. 회담 전 미국의 거센 압박 속에서도 돌발변수 없이 화기애애한 분위기로 마감돼 양 정상 간 신뢰를 구축하는 계기가 마련됐다. 특히 트럼프 대통령이 한국산 자동차에 대한 15% 관세를 재확인해 정책 불확실성이 상당 부분 해소됐다는 평이다. 이 대통령 ‘피스메이커, 페이스메이커’ 회담 분위기 이끌어 이재명 대통령 취임 82일 만에 열린 한미 정상회담은 치열한 기싸움으로 시작했다. 트럼프 대통령은 정상회담을 3시간 앞두고 소셜미디어에 “한국에서 무슨 일이 벌어지고 있는가. 숙청이나 혁명처럼 보인다”고 적어 우리 정부를 압박했다. 이 대통령은 모두 발언에서 북한 문제를 상당 부분 언급하며, “저의 관여로 남북 관계가 잘 개선되기는 쉽지 않다. 실제로 이 문제를 풀 수 있는 유일한 인물은 트럼프 대통령”이라고 치켜세웠다. 이어 “트럼프 대통령께서 ‘피스메이커’를 하시면 저는 ‘페이스메이커’로 열심히 지원하겠다”고 말했다. 또한, “전 세계에서 유일하게 분단국가로 남아 있는 한반도에도 평화를 만들어달라”며, “김정은(북한 국무위원장)도

정치

더보기
이 대통령, 여야 대표에 "국정에 국민 모든 목소리 공평히 반영 노력"
[시사뉴스 홍경의 기자] 이재명 대통령은 8일 서울 용산 대통령실에서 여야 대표와 오찬 회동을 갖었다. 이재명 대통령은 이날 정청래 더불어민주당 대표와 장동혁 국민의힘 대표 등 여야 지도부를 만나 "대통령은 국민을 통합하는 게 가장 큰 책무인데 어려운 게 현실"이라며 "국정에 모든 국민의 목소리가 공평하게 반영될 수 있도록 노력하겠다"고 했다. 이 대통령은 여야 대표 오찬 회동에서 "우리 국민이 하나의 목소리로 대한민국의 국익과 국민의 복리 증진에 힘을 모으면 참 좋겠다. 대외 협상에 크게 도움이 될 것"이라며 이같이 말했다. 이 대통령은 앞선 한미·한일 정상회담을 두고 "일종의 통과의례 같은 것인데 무엇을 얻기 위한 것이 아니라 무엇인가를 지키기 위해 필요해서 하는 과정이고 매우 어렵다는 생각이 들었다"고 말했다. 그러면서 "지금은 매우 어려운 상황이다. 공개석상에서 '나라의 힘을 좀 길러야 되겠다'는 말씀을 드린 이유가 있다"며 "우리가 다투고 경쟁은 하되 국민 또는 국가 모두의 이익에 관한 것들은 한목소리를 낼 수 있으면 참 좋겠다"고 했다. 또 "저는 민주당 출신 대통령이기는 하지만 이제는 국민 모두의 대통령이 돼야 한다고 생각하는데 쉽지는 않은 것

경제

더보기

사회

더보기
【지역네트워크】 공감에서 시작해 신뢰로 이어지다...하남시가 만든 따뜻한 민원행정
[시사뉴스 하남=박진규 기자] 이현재 하남시장은 행정을 바라보는 시선부터 달랐다. 민원을 단순한 요청이 아닌, 시민의 삶에 먼저 다가가야 할 ‘공감의 신호’로 받아들였다. 그래서 그는 행정의 속도만큼이나, 어떻게 응답하느냐의 ‘태도’를 중요하게 여겼다. 하남시는 민원행정의 개념을 완전히 뒤바꿨다. 단순히 민원을 처리하는 데 그치지 않고, 시민의 언어로 설명하고, 불편을 헤아리며, 현장에서 바로 답을 찾는 시스템으로 변화시키고 있다. 말투 하나, 설명 한마디에도 공감을 담고, 이동이 불편한 시민을 위해 ‘현장’을 행정의 출발점으로 삼은 행정. 시청에 가지 않아도, 여러 부서를 전전하지 않아도, 언제 어디서든 민원에 귀 기울일 수 있는 구조. 하남시는 그렇게 행정의 중심을 ‘사람’으로 옮겼다. ‘문제를 피하지 않는 책임 행정’, ‘모든 과정에 사람이 중심이 되는 행정’, 그리고 ‘시민의 언어로 설명하는 행정’. 하남시가 실현하는 민원행정은 제도가 아니라 철학의 실천이다. 민원은 소통이다…공연으로 배우는 ‘설명력도 친절역량’ 단 한 마디의 설명이 누군가에게는 위로가 되고, 누군가에게는 벽이된다. 하남시는 이러한 ‘언어의 차이’가 만들어내는 거리감을 줄이기 위해,

문화

더보기

오피니언

더보기
【박성태 칼럼】 생성형 AI 활용…결국 사용자의 활용 능력과 방법에 달려 있다
지난 2022년 인공지능 전문 기업인 오픈AI에서 개발한 챗GPT를 비롯해 구글의 Gemini(제미나이), 중국의 AI기업에서 개발한 딥시크, 한국의 AI기업에서 개발한 뤼튼, 미국 캘리포니아에 본사를 두고 있는 중국계 미국기업이 개발한 젠스파크 등 생성형 AI 활용시대가 열리면서 연령층에 상관없이 생성형 AI 활용 열기가 뜨겁다. 몇 시간에서 며칠이 걸려야 할 수 있는 글쓰기, 자료정리, 자료검색, 보고서, 제안서 작성 등이 내용에 따라 10초~1시간이면 뚝딱이니 한번 사용해 본 사람들은 완전 AI 마니아가 되어 모든 것을 AI로 해결하려 한다, 이미 65세를 넘어 70세를 바라보는 필자는 아직도 대학에서 3학점 학점 수업을 진행하고 있다. 지난 2일 개강 첫날 학생들에게 한 학기 동안 글쓰기 과제물을 10회 정도 제출해야 하는데 생성형 AI를 활용해도 좋으나 그대로 퍼오는 것은 안 된다는 지침을 주었다. 그러면서 “교수님이 그대로 퍼오는지 여부를 체크 할수 있다”고 큰소리를 쳤다. 큰소리가 아니라 지난 학기에도 실제 그렇게 점검하고 체크해서 활용 정도에 따라 차등 평가를 실시했다. 이렇게 차등 평가를 할 수 있다는 것은 필자가 생성형 AI 활용 경험이 있