고객사 내부 고찰을 위한 ‘LLM’에 대한 코멘트(2)
개인적으로 지난 4년간 정부기관 및 국내 제약기업들과 함께 개발한 ‘인공지능 신약개발 플랫폼’ 마무리를 앞두고 있습니다. 여러 인공지능 분야를 접하면서 DNA구조 계산이나 항암표적 가능성 등 수학적 연산이 필요한 영역에서는 인간을 월등히 뛰어 넘는 인공지능의 확실한 성능은 느꼈지만, 사실 냉정하게 LLM 기반의 서비스에서는 같은 강도의 임팩트는 받지 못했습니다. 정답이 필요 없는 ‘비주얼 영역’의 미드 저니나 스테이블 디퓨전 등은 이야기가 다르겠지만, Chat GPT, 바드, 하이퍼클로바의 텍스트 생성 기반의 서비스들은 할루시네이션은 여전했기 때문입니다. 트랜스포머 모델의 출발이 언어 번역을 위한 알고리즘에서 시작했기에 문장을 어색하지 않게 만들어 내는 능력은 뛰어나지만 사실 관계 및 논리적인 측면에서는 인간의 즉각적인 통찰을 넘어서기에는 아직도 많이 부족합니다. 방대한 양의 정보 중 특정 정보를 순식간에 표출하거나 요약하는 능력도 중요하지만 무엇보다 그 결과를 판단하는 개인의 통찰이 중요하다 것을 다시 한번 느낍니다. 하물며 통찰을 갖추기 전 위치의 ‘상태’라면 이 관점은 더욱 중요하겠죠. 따라서 지식을 전달하는 카테고리에서의 할루시네이션은 특별히 신경 써야할 부분입니다. 그럼에도 불구하고 전 세계의 천문학적인 투자와 관심으로 인해 발전 속도가 워낙 가파르다보니 지금보다 더 좋아질 것이라 기대합니다. 이번 Open AI 샘 알트먼 해임 사건 파급력이나 그로 인한 MS CEO 사티아 나델라의 강경 대응과 그 재발 방지 대책을 보더라도 얼마나 중요한 분야인지 새삼 느낍니다. 그러니 이러한 발전과 변화를 기술활용자 관점에서 유심히 지켜봐야 하겠습니다. 만약 우리 인간이 내 뱉는 ‘말’조차 일종의 확률이라면 LLM의 알고리즘은 더욱 의미가 있습니다. 어쩌면 특정 입력(질문, 자극)에 대한 우리의 출력(답변, 반응)도 일종의 확률일 수 있기 때문입니다.
October 30, 2024