“AI 의료 정보 그대로 믿었다가” 응급실행 속출

최근, AI사용이 보편화 되어 전문지식에대한 접근이 과거에 비해 쉬워졌습니다. 자신의 몸에 문제가 생기면 병원에 가기 두려운 환자들은 먼저 AI나 유투브를 통해 검색을 해볼텐데요. 문제는 이런 검증되지 않은 정보를 그대로 믿고 실행하는데 있습니다.

최근, 중국에서는 이러한 이유로 많은 문제가 발생하자, 관련 자격이 없는 사람은 관련 분야의 컨텐츠 제작을 금지하는 법안을 시행하기도 했는데요. AI로 영상을 만들기 너무 쉬운 세상에서 의료정보를 허위로 조작하여 상행위를 하는 사례가 국내에서도 심심치 않게 찾아볼수있습니다.


AI 챗봇 조언 따르다 응급실 직행한 사례 속출

2025년 10월 29일 – 인공지능(AI) 기술이 생활 곳곳에 스며들면서 많은 사람들이 건강 관련 질문을 AI 챗봇에 문의하는 경우가 급증하고 있다. 하지만 AI의 잘못된 의료 조언을 맹신했다가 생명을 위협받는 심각한 사례들이 전 세계적으로 보고되면서, 전문가들이 강력한 경고음을 울리고 있다.

AI 조언 믿고 자가 치료하다 응급실 직행

뉴욕 특수외과 병원의 대런 레블 박사는 최근 “많은 환자들이 AI에서 얻은 조언으로 의사를 시험해보려 한다”며 “문제는 그러한 조언들이 반드시 실제 증거에 기반한 권고가 아닐 수 있다는 점”이라고 지적했다. New York Post

레블 박사의 연구에 따르면, AI가 제공하는 의료 조언의 약 25%가 실제 의학적 근거가 없는 허구인 것으로 나타났다. 이는 AI 의존의 위험성을 단적으로 보여주는 통계다.

실제 발생한 충격적인 피해 사례

1. 항문 병변 자가 치료 시도로 응급실행

35세 모로코 남성은 항문에 생긴 병변을 AI 챗봇에 문의했다. 챗봇은 이를 치핵으로 의심하며 고무 결찰술을 제안했고, 남성은 실을 이용해 스스로 이 시술을 시도했다. 극심한 통증에 시달리다 응급실로 이송된 그는 검사 결과 치핵이 아닌 3cm 크기의 사마귀로 확인되었다.

2025년 1월 국제 최신 연구 저널(International Journal of Advanced Research)에 발표된 이 사례에서 연구진은 환자를 “AI 오용의 피해자”라고 명명하며 “AI는 의사를 대체할 수 없다”고 강조했다.

2. 독성 물질 섭취로 3주간 입원

60세 남성은 식단에서 소금 섭취를 줄이는 방법을 AI 챗봇에 문의했고, 챗봇은 대안으로 ‘브롬화나트륨’ 섭취를 제안했다. 브롬화나트륨은 신경계에 영향을 미치는 독성 물질임에도 불구하고, 남성은 3개월간 요리에 활용했다.

그 결과 브롬 중독으로 인한 환각, 혼란, 편집증, 피부 발진 등의 심각한 증세를 보였고, 3주간의 입원 치료를 받아야 했다. 이 사례는 2025년 8월 ‘내과 임상 사례 연보(Annals of Internal Medicine Clinical Cases)’에 상세히 보고되었다. 코메디닷컴

3. 미니 뇌졸중 진단 지연

63세 스위스 남성은 심장 시술 후 복시(사물이 2개로 보이는 증상) 증상이 재발하자 AI 챗봇에 문의했다. 챗봇은 “일시적이며 곧 호전된다”고 답했고, 그는 병원 방문을 미루었다.

24시간 후 세 번째 증상 재발 후 응급실로 이송된 그는 ‘일과성뇌허혈발작(TIA, 미니 뇌졸중)’이라는 심각한 진단을 받았다. Wien Klin Wochenschr 저널에 발표된 보고서에서 의료진은 “AI의 불완전한 진단 및 해석으로 치료가 지연됐다”고 밝혔다.

4. 청소년 자살 사건과 AI 챗봇 책임 논란

미국에서는 16세 청소년 아담 레인(Adam Raine)이 자살한 사건과 관련하여 그의 부모가 ChatGPT 개발사 OpenAI를 상대로 소송을 제기했다. 소장에 따르면, AI는 자살 의도를 명확히 언급한 대화 상황에서도 상담을 종료하거나 응급 대응을 하지 않았다는 충격적인 주장이 제기되었다.

이 사건 이후 OpenAI는 챗봇이 정신적·정서적 위기 신호를 더 잘 인식하도록 하는 안전장치를 도입했으나, 이러한 보완책이 충분한지는 여전히 논의의 대상이다.

중국, 한국보다 앞서 강력한 온라인 의료 정보 규제 단행

이러한 문제의 심각성을 인식한 중국 정부는 2024년 7월 28일, 전례 없는 강력한 온라인 의료 정보 규제안을 발표했다.

중국 중앙인터넷정보판공실과 국가보건건강위원회 등 4개 주요 부처가 발표한 ‘자기미디어 의료 건강 정보 공유 행위 규제 통지’의 핵심 내용은 다음과 같다.

중국 규제의 3대 핵심 원칙

1. 엄격한 자격증 인증 의무화

모든 의료·건강 정보 생성자는 반드시 의사 자격증(医师资格证), 의사 면허증(执业证), 재직 증명서(在职证明)를 제출해야 한다. 플랫폼은 검증된 계정에 한해 프로필에 명확한 ‘인증 마크’를 표시해야 하며, 무자격자가 의료 콘텐츠를 게시할 경우 해당 콘텐츠를 즉시 삭제하고 계정을 정지시킨다. NPL뉴스

2. AI 생성 콘텐츠 투명성 확보

인공지능으로 생성된 의료 정보에 대해서는 반드시 “AI 생성 콘텐츠”임을 명시하도록 의무화했다. 또한 드라마 형식으로 연출된 건강 정보 영상에 대해서도 “극화 재현(剧情摆拍)” 표기를 의무화했다.

3. 상업적 이익 창출 전면 차단

건강 정보를 통해 특정 상품이나 서비스를 판매하거나, 콘텐츠 내에 상품 구매 링크를 삽입하고 특정 치료법을 추천하여 상업적 이익을 창출하는 모든 행위를 전면적으로 차단한다.

규제 배경과 효과

중국에서는 최근 “홍후이(红会)” 같은 유명 건강 인플루언서가 무자격 상태에서 의료 조언을 제공하다 적발되는 등 대중적 파급력이 큰 사건들이 잇따르자, 정부가 강력한 규제를 도입했다.

2024년 한 해에만 허위 건강 정보로 인한 소비자 피해가 수백억 위안 규모로 발생한 것으로 추정되고 있으며, 온라인 플랫폼에서 유통되는 의료 정보 중 약 30%가량이 명확한 근거 없이 생산되거나 왜곡된 내용을 포함하고 있다는 내부 조사 결과도 발표됐다.

중국 베이징대학 의료관리학과 교수는 “이번 조치로 온라인 의료 정보의 질이 80% 이상 향상될 것”이라고 예측했다.

한국도 유사한 문제 심각…전문가 “규제 필요성 대두”

한국 또한 유튜브를 비롯한 다양한 온라인 플랫폼에서 무자격자가 의료 행위를 하거나, “100% 자연 치료법으로 만병통치”와 같은 비과학적인 정보가 무분별하게 유포되는 사례가 빈번하다.

2024년 식품의약품안전처 발표에 따르면, 온라인에서 적발된 건강기능식품 허위·과장 광고 건수는 전년 대비 15% 이상 증가했으며, 이로 인한 소비자 신고 건수도 매년 최고치를 경신하고 있다.

서울대학교병원의 한 의료전문가는 “의료 정보는 엔터테인먼트가 아니다. 잘못된 정보는 누군가의 생명을 위협할 수 있다는 점을 온라인 콘텐츠 제작자들은 명심해야 한다”고 강조했다.

의료계 관계자는 “한국도 온라인 의료 정보의 신뢰성 확보를 위해 중국의 사례를 면밀히 참고할 필요가 있다”며 “현재의 자율 규제만으로는 한계가 있다”고 지적했다. 뉴스1

유튜브 의료 정보도 조심해야

최근 연구에 따르면 유튜브에서 가장 인기 있는 전립선암 관련 동영상의 77%가 편향되거나 잠재적으로 잘못된 정보를 포함하고 있는 것으로 나타났다. NYU Langone Health

유튜브는 2023년 8월 의료 오정보를 규제하기 위해 새로운 정책을 발표했지만, 여전히 많은 허위 건강 정보가 유통되고 있다.

전문가들은 유튜브나 SNS에서 의료 정보를 접할 때 다음과 같은 점을 확인해야 한다고 조언한다:

  • 정보 제공자가 실제 의사 자격증을 보유한 전문가인지 확인
  • 영상이나 게시물이 특정 제품 판매를 목적으로 하는지 확인
  • 의학적 주장이 권위 있는 학술지나 공신력 있는 기관의 자료에 근거하는지 확인
  • “100% 치료”, “만병통치” 같은 과장된 표현을 경계

“AI와 온라인 정보는 참고만, 최종 판단은 의사와 상담”

HoloMD의 데이비드 프루(David Proulx) 최고 AI 책임자는 “ChatGPT와 같은 도구는 사람들이 의학 용어를 더 잘 이해하거나, 진료 예약을 준비하거나, 건강 상태에 대해 배우는 데 도움을 줄 수 있다”면서도 “증상이 심각한지 또는 긴급한 치료가 필요한지를 판단하는 데 사용해서는 절대 안 된다“고 강조했다.

레블 박사는 “AI가 질환명이나 의학적 용어를 이해하고 진료 준비를 돕는 ‘보조 수단’으로서의 가치는 인정하지만, 증상의 중대성이나 응급 여부를 판단하는 용도로 사용하는 것은 심각하게 위험하다”고 거듭 경고했다.

면책 고지 부재의 심각성

현재 많은 주요 AI 챗봇들이 건강 관련 질문에 답변할 때 “이 정보는 전문적인 의료 조언이 아니다”라는 명확한 안내 문구를 거의 제공하지 않고 있다는 점이 문제로 지적된다.

2025년 Nature 저널에 발표된 연구에 따르면, 많은 주요 챗봇이 의료 질문에 대한 응답에서 의료 면책 조항을 제공하는 것을 중단한 것으로 나타났다.

이러한 면책 고지의 부재는 사용자가 AI의 답변을 전문적인 진단이나 치료 지침으로 오해할 위험을 현저히 높이며, 실제 병원 방문을 미루거나 잘못된 자가 치료로 이어지는 치명적인 결과를 초래할 수 있다.

AI 발전했어도 의료 영역만큼은 전문가와 상담 필수

AI 기술이 눈부시게 발전하고 있지만, 생명과 직결된 의료 분야에서만큼은 AI나 유튜브 등 온라인 정보를 그대로 믿는 것은 매우 위험하다.

의료는 생명과 직결되는 최우선 가치이며, 인공지능이나 검증되지 않은 온라인 정보가 그 가치를 훼손하는 도구가 되어서는 안 된다.

건강에 문제가 생겼을 때는 반드시 의료 면허를 가진 전문가와 직접 상담해야 하며, AI나 온라인 정보는 어디까지나 참고 자료로만 활용해야 한다는 것이 전문가들의 일치된 의견이다.

중국의 선제적인 규제 움직임은 한국을 비롯한 전 세계 국가들이 디지털 시대의 의료 정보 거버넌스에 대해 진지하게 고민하고, 실질적인 대책을 마련해야 할 시점임을 분명히 보여주고 있다.

“재미보다 정확성이, 조회수보다 생명이 더 중요하다” – 이제 의료 정보도 ‘진짜’만이 통하는 시대가 되어야 한다.


관련 기사: