생성형 AI, 의료 혁신의 새로운 시대를 열다

생성형 AI, 의료 진단의 판을 바꾸다? 미래를 들여다보다

생성형 AI(Generative AI)가 의료 산업에서 더욱 주목받고 있습니다. 특히, ChatGPT와 같은 대규모 언어 모델(LLM)이 의료 진단에서 의사와 협력하여 어떤 효과를 낼 수 있을지에 대한 연구가 이어지고 있습니다. 최근 미국의 무작위 임상 시험(randomized clinical trial)은 화제를 모았습니다. 이 연구는 ChatGPT가 50명의 활동 중인 의사들의 진단 역량을 얼마나 향상시킬 수 있는지 측정했는데요, 결과는 꽤 흥미로운 점을 시사했습니다.


ChatGPT, 의사보다 진단을 잘할 수 있을까?

시험에 따르면, 단순히 ChatGPT를 의사의 도구로 제공했을 때의 효과는 생각보다 크지 않았습니다. "ChatGPT를 진단 지원 도구로 활용하더라도 기존 자료를 사용하는 것과 비교해 임상 추론의 명백한 향상을 보이지 못했다"는 결론이 나왔죠. 하지만 반전은 여기서 시작됩니다. ChatGPT 단독으로 진단했을 때의 결과가 의사들(도구 사용 여부 불문)보다 높은 성과를 기록했다는 사실입니다.

이는 의료 AI 기술의 잠재력과 한계를 동시에 드러내며 중요한 질문을 제기합니다. AI가 인간 의사를 초월할 수 있다면, 그 역할은 어디에 두어야 하는가?


“인턴 AI”와 전문가의 협업 문제

미국 연구진의 시험 외에도 MIT에서 행해진 또 다른 실험은 AI와 인간 간 협업의 복합성을 보여줍니다. 이 실험은 재료 과학자들이 AI 도움을 받아 연구를 수행했을 때, 발견된 신소재가 44% 증가하고 특허 출원도 39% 늘었다는 결과를 냈습니다. 이처럼 AI가 '아이디어 생성' 작업에서 두각을 나타내며 연구자들은 더 창의적인 작업에 집중할 수 있었습니다.

그러나 흥미로운 반응도 나타났습니다. 많은 연구자는 AI와 협업할 때 “기계 부품처럼 느껴졌다”고 보고하며 이러한 바람직하지 않은 경험이 직업 만족도를 낮췄다고 답했죠. AI가 생산성 향상에는 기여할지 몰라도, 인간이 느끼는 자기 효능감이나 전문직으로서의 자부심을 떨어뜨릴 가능성이 있다는 것을 보여주었습니다.


생성형 AI의 분류: 신과 인턴, 그리고 기계부품

Drew Breunig라는 기술 전문가가 최근 새로운 관점을 제시했는데요, 그는 생성형 AI를 세 가지 카테고리로 구분해 설명했습니다.

  1. 신(God): 독립적으로 작동하며 스스로 판단할 수 있는 AGI(인공지능 일반)의 미래형 기술. OpenAI가 구축하려는 목적이 바로 이것이죠.
  2. 인턴(Intern): 전문가를 보조하며 비교적 단순한 작업을 도와주는 기술입니다. ChatGPT와 같은 언어 모델이 속하며 현재 가장 많이 활용되고 있습니다.
  3. 기계부품(Cog): 특정 작업을 극도로 잘 하도록 설계된 좁은 범위의 AI 기술입니다.

우리에게 익숙한 것은 대부분 ‘인턴’에 해당하는 AI입니다. 이를 통해 인간은 반복적이고 지루한 작업을 덜어냈지만, AI와 더 깊은 방식으로 협력하는 방법에 대한 학습도 필요한 상황입니다.


의료 진단 AI의 장단점과 과제

DeepMind와 런던의 Moorfields Eye Hospital이 2018년 협업한 사례처럼 의료 이미지를 분석하여 진단 시간을 단축하는 사례는 이미 성공적이었죠. 하지만 이번 ChatGPT 임상 시험은 AI의 진단 결과가 인간 의사의 판단보다 나았음에도 불구하고, 많은 의사가 자신의 초기 판단을 고수하며 AI 결과를 충분히 활용하지 않은 사례를 보여줬습니다.

이는 새로운 기술을 받아들이는 데 있어서 인간의 자만효과적인 교육 부족이 중요한 장애물이 될 수 있음을 시사합니다. 특히, “AI에게 무엇을 물어볼지 아는 것(policies for effective prompt engineering)”은 아직 초기 단계에서 충분히 다뤄지지 않은 영역입니다.


어디로 가야 할까? 신중함과 혁신의 통합

생성형 AI와 인간 전문가와의 관계는 단순함과 복잡함을 동시에 내포하고 있습니다. 기술이 발전하면서 발생할 수 있는 부작용에 대한 심도 있는 논의가 필요하며, 다음과 같은 모범 사례를 발전시키는 것이 중요합니다.

  1. 적극적인 교육:
    전문가들이 AI 도구의 최대 잠재력을 활용할 수 있도록 프롬프트 설계와 사용법을 철저히 이해해야 합니다.

  2. 높은 투명성:
    모든 AI 시스템의 기여와 한계가 명확히 전달되어 인간과 AI의 협력이 신뢰를 기반으로 할 수 있어야 합니다.

  3. 윤리적 사용 강조:

특히 의료 분야에서는 개인 데이터를 다루므로 보안과 사생활 보호를 최우선으로 유지해야 합니다.


결론: 인간과 AI의 진정한 동반자 관계를 생각하며

이번 ChatGPT 임상 시험은 AI와 의사 간 협력의 가능성과 한계를 동시에 보여주며 중요한 질문을 던졌습니다. AI는 의료 현장에서 오랜 짐을 덜어줄 가능성을 가지고 있지만, 인간 전문가의 역할은 여전히 필수적입니다.

진정한 혁신은 AI가 인간을 대체하는 것이 아니라, 서로의 장점을 극대화하여 더 나은 결과를 이끌어내는 데 있습니다. ChatGPT와 같은 기술은 그 가능성을 보여줬지만, 현재는 미완의 작품이라 할 수 있습니다. 기계와 인간이 함께 그려나갈 미래가 더욱 기대되지 않으신가요?

댓글 달기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다

위로 스크롤