LG AI연구원, ‘2025 AI 윤리 책무성 보고서’ 발간

민나리 기자
민나리 기자
수정 2026-02-19 13:16
입력 2026-02-19 13:16
한국적 맥락 강한 ‘소버린 AI’ 입증
상업적 안전성 21.2% 확인
딥페이크 등 미래 위협 선제 대응


이홍락(왼쪽)·임우형 LG AI연구원 공동 연구원장. LG 제공


LG AI연구원이 인공지능(AI) 개발의 안전성과 윤리 실천 현황을 담은 ‘2025 AI 윤리 책무성 보고서’를 19일 발간했다. LG AI연구원은 2023년부터 매년 관련 보고서를 발간하며 AI 윤리 실천 노력을 계열사 전반으로 넓히고 있다.


보고서의 핵심은 지역적 특수성과 문화적 맥락을 정확히 반영하는 ‘소버린 AI’의 구현 역량이다. 글로벌 거대언어모델(LLM)들이 국가별 역사나 지리적 쟁점에 대해 중립적인 답변을 유지하거나 오류를 범하는 사례가 보고되는 가운데, LG의 ‘K-EXAONE’은 한국적 맥락에서 높은 신뢰도를 나타냈다. 실제 역사 왜곡 및 독도 문제 등 국내 특화 이슈 226개 항목으로 구성된 ‘한국형 AI 안전성 평가(KGC-SAFETY)’ 결과, K-EXAONE은 96.1점을 기록하며 국내 환경에 최적화된 답변 성능을 보였다.

데이터 저작권 준수를 위한 기술적 성과도 공개됐다. LG는 자체 AI 에이전트 ‘Nexus’를 통해 오픈 데이터셋 2800여개를 전수 조사했다. 분석 결과 상업적 이용이 가능한 데이터는 21.2% 수준으로 나타났으며, LG는 이러한 식별 기술을 활용해 저작권 침해 위험을 줄인 데이터만을 선별 학습에 활용하고 있다. 이는 법률 전문가 대비 월등히 빠른 속도로 데이터의 법적 위험성을 검토함으로써 AI 개발의 투명성을 높인 사례로 꼽힌다.

미래 발생 가능한 잠재적 위험에 대해서는 선제적인 관리 체계를 수립했다. 보고서에는 AI가 국가 암호 체계에 영향을 미치거나 인간의 의사결정을 조작할 수 있는 시나리오 등 고위험군 관리 항목(K-AUT)이 명시됐다. 예를 들어, 보이스피싱에 악용될 수 있는 딥페이스 음성 생성이나 개인의 금융 정보를 탈취하기 위한 고도화된 사회 공학적 공격 시나리오 등이 이에 해당한다. LG는 2026년부터 모든 연구 과제를 위험도에 따라 이원화하여 관리하는 프로세스를 공식 도입할 계획이다.



이홍락 LG AI연구원 공동 연구원장은 “변화하는 글로벌 규제에 수동적으로 대응하기보다 기술의 안전과 신뢰를 선제적으로 확보하는 데 집중하고 있다”며 보고서의 발간 취지를 설명했다. LG는 이번 보고서를 통해 글로벌 기준에 부합하는 AI 윤리 표준을 제시하는 한편, 특정 문화권에 편향되지 않으면서도 한국적 가치를 명확히 반영하는 기술 경쟁력을 지속적으로 고도화해 나갈 방침이다.

민나리 기자
에디터 추천 인기 기사
많이 본 뉴스