[서울=연합뉴스 오규진 기자] 크리스 메세롤 프론티어모델포럼 의장은 인공지능(AI) 모델을 개발하는 과정에서 ‘위험의 임계치’를 찾아야 한다고 조언했다.

메세롤 의장은 12일 서울 강남구 코엑스(COEX)에서 열린 글로벌 AI 안전 콘퍼런스에 기조연설자로 나서 “(고도의 능력을 갖춘 AI인) 프론티어 AI를 설계하는 방법은 알지만, AI가 어떤 능력을 갖출지는 모른다”며 이같이 밝혔다.

그는 “AI가 에이전트 형태로 변해갈수록, 여기에 따르는 문제를 해결하기는 어려워지고, 중요함은 더 도드라진다”면서 위험 경감 정책, 위험 책임에 대한 공시, 레드라인 설정 등을 방법론으로 제시했다.

프론티어모델포럼은 구글과 마이크로소프트(MS), 오픈AI, 앤트로픽 등이 AI 모델의 안전 표준 개발을 위해 결성한 포럼이다.

화상으로 참여한 댄 헨드릭스 AI 안전센터 디렉터

[촬영 오규진]

화상으로 참여한 비영리기구 ‘AI 안전센터’의 댄 헨드릭스 디렉터도 AI 모델을 개발하는 과정에서 정보 제약의 중요성을 역설했다.

일론 머스크 테슬라 최고경영자(CEO)가 오픈AI의 대항마로 설립한 AI 업체 ‘xAI’의 안전담당 고문을 맡고 있는 그는 “AI 모델이 특정 위험 정보를 보유하고 있을 때 (의도적으로) 학습하지 않는 방법을 연구하고 있다”고 소개했다.

모델에 레이어를 추가해 전문 지식이 없는 ‘초보자’와 전문가가 질문했을 때의 답변을 다르게 하는 방식이라고 헨드릭스 디렉터는 설명했다.

에마드 모스타크 스태빌리티AI 설립자

[촬영 오규진]

이미지 생성 AI ‘스테이블 디퓨전’을 만든 스태빌리티AI의 에마드 모스타크 설립자(전 CEO)는 ‘탈중앙화된 AI’을 대안으로 제시했다.

그는 “하나의 인공범용지능(AGI)을 구축하기보다는 여러 개의 작은 모델이 협업하는 것이 (인류에게) 더 안전하다고 생각한다”라면서 각 문화의 특성을 반영한 데이터세트가 다양하게 등장해야 한다고 주장했다.

과학기술정보통신부와 한국정보통신기술협회(TTA)는 11∼12일 거대언어모델(LLM)의 잠재적 위험 및 취약점을 찾는 ‘생성형 AI 레드팀 챌린지’를 열었다.

11일에는 네이버[035420]와 SK텔레콤[017670], 업스테이지 등이 참여하는 레드팀 챌린지가, 12일에는 국내·외 전문가들이 AI의 신뢰와 안전성을 논의하는 글로벌 AI 안전 콘퍼런스가 진행됐다.

콘퍼런스에는 에이단 고메즈 코히어 대표와 하정우 네이버 퓨처AI센터장, 에릭 데이비스 SK텔레콤 부사장, 김경훈 카카오[035720] AI 세이프티 리더, 오혜연 한국과학기술원(KAIST) 전산학부 교수, 김세엽 셀렉트스타 대표 등도 참석했다.

acdc@yna.co.kr

속보는 블록미디어 텔레그램으로(클릭)

같이 보면 좋은 기사

머스크 xAI, 오픈AI와 경쟁 위해 펀딩 추진…최대 5.5조원