「대화형 AI와 의료 정보와의 마주하는 방법」 당사자가 알고 싶은 포인트
최근,
ChatGPT 등의 대화형 AI가 화제에 오를 기회가 늘어나고 있습니다.
실제로,
대화형 AI를 사용하여 정보
수집을 실시해,
「편리한 툴이다」라고 실감된 분도 계시는 것이 아닐까요.한편,
의료 등 전문적인 정보의 정확성에 대해서는 현상,
과제가 있다고 지적되고 있습니다.
유전성 질환의 당사자·가족으로부터는,
관련이 있는 질환의 정보를 대화형 AI로 조사하는 것에 대해,
「기대」와 「불안」의 소리를 보내 주시고 있습니다.
거기서,
이번은,
대화형 AI로 얻은 의료 정보와의 마주하는 방법에 대해서,
지바 대학 치료학 인공 지능(AI) 연구 센터장/인공 지능(AI) 의학 교수의 가와카미
히데라 선생님에게
이야기를 들었습니다
.가와카미 선생님은,
의사 면허를 가지는 연구자로서 현재,
최첨단의 AI·데이터 사이언스 기술을 이용해,
질환의 발병·예후 예측 등의 연구를 진행되고 있습니다.
기사의 후반에서는,
유전성 질환 플러스 독자로부터 전해진 질문이나 의문에 대해서,
카와카미 선생님에게 대답해 주셨습니다.
이것만은 유지하고 싶은,
대화형 AI에 의한 정보 수집의 기본
대화형 AI를 통한 일반적인 정보 수집에 대한 장점과 단점을 알려주세요.
장점으로는 편리성이 높습니다.
지금까지는,
인터넷으로 키워드를
검색해,
웹 사이트를 여러가지 보고,
스스로
정보를 정리해,
정리해…라고 대응하고 있던 부분이,
대화형 AI에 적절한 프롬프트(지시문)를 넣는 것만으로 원하는 정보를 정리된 형태로 꺼낼 수 있게 되었습니다.
이것은 획기적인 변화라고 생각합니다.
저는 ChatGPT와 같은 대규모 언어 모델을 기반으로 한 대화형 AI가 '검색'이라는 개념을 바꿀 것이라고 생각합니다.
그러나 원하는 정보를 얻으려면 적절한 프롬프트를 사용하는 것이 중요합니다.
한편,
단점은 크게 두 가지가 있습니다.
첫 번째는 대화형 AI에서
얻은
정보 중 일부가 잘못된 정보를 포함할
수 있다는 것입니다.
대화형 AI에서 정보를 추출할 때 정보의 근거를 확인해야 합니다.
대화형 AI에서는,
「환각」이라고 말해,
잘못된 정보를 AI가 아무래도 올바른 정보와 같이 제시해 오는 케이스가 있습니다.
왜 그런 일이 일어나는가 하면,
대화형
AI의 소스는 인터넷상에
있는 정보이기 때문입니다.
그 때문에,
예를 들면,
인터넷상에 없는 정보를 들었을 경우에는,
무리하고 다른 정보를 보충해,
잘못된 정보를 내어 오는 경우가 있습니다.
그러므로,
대화형 AI가 내놓아 온 「정보의 근거를 확인하는」 것이 중요합니다.
이것은
의료 정보에
국한되지 않으며 일반적으로 대화형 AI를 사용하여 정보를 얻을 때는 반드시 주의해야 합니다.
또한 대화형 AI가 잘못된 정보를 바탕으로 응답할 가능성도 있습니다.
의료
정보의 경우,
예를 들어,
의료
종사자가 아닌 사람이 발신하고 있는 잘못된 정보가 ChatGPT에서 나오는 것은 충분히 일어날 수 있습니다.
지금까지는 웹사이트마다 "이것은 정부가 발신하는 웹사이트이기 때문에 신뢰할 수 있는 정보이다" 등으로 판단할 수 있었습니다.
그러나 대화형 AI에서 얻은 정보는 그렇게 확인할 수 없는 경우가 있습니다.
그러므로,
스스로 정보의 근거를 확인한 후,
정보의 폐기 선택을 하는 것이 중요합니다.
두 번째는 개인정보 취급에 주의가 필요하다는 것입니다.
ChatGPT의 경우
학습에 사용하지 않도록 모드를
전환하여 사용할 수 있습니다.
그러나 기본적으로는 대화형 AI를 사용할 때 개인정보 등 기밀정보에 해당하는 것을 넣지 않도록 하여 이용합시다.
실수로,
개인명을 넣어 학습시킨 경우,
그 후,
전혀 관계없는 문맥으로 그 개인명이 나온다고 하는 일이 있을 수 있기 때문입니다.
이용하는 측의 대화형
AI에 대한
리터러시에 의해,
얻어지는
정보의 내용에도 차이가 나오나요?
맞습니다.
이용하는 측의,
대화형 AI에 관한 리터러시는 중요하게
된다고
생각합니다.
예를 들어,
프롬프트를 조금 궁리하는 것만으로,
대화형 AI가 나타내는 응답의 퀄리티가 오르는 것으로 알려져 있습니다.
어떤 키워드에 대해 알고 싶은 경우,
단순히 「〇〇는 무엇?」라고 듣는 것만으로는,
알고 싶은 것의 모든 정보는 얻을 수 없습니다.
또한,
듣는 방법에
따라서는,
편향된
정보를 끌어낼
가능성도 있습니다.
이러한 것을 이해한 후,
대화형 AI를 이용하는 것이 중요합니다.
대화형 AI를 사용하여
의료 정보(병
및 치료 정보)를 조사할
때,
당사자나 가족은 어떤 것에 주의하면 좋을까요?
우선,
대전제로서,
대화형 AI에 의한 정보집은 「정보를 살짝 조사하는 수단의 하나」로서 파악합시다.
의료
정보라면,
예를 들면,
「〇〇는,
어떤 병입니까?」라고 하는 사용법입니다.
의료 정보로 무엇인가의 판단을 요구하는 내용에 대해서는,
반드시 의료 종사자에게 확인하는 것이 중요합니다.
대화형
AI가 내는 대답은 어디까지나 인터넷상에 있는 언어 정보에 근거한 것입니다.
그러므로,
그 원래의 데이터가 잘못되거나 편향된 정보이거나 하면,
대화형 AI의 회답은 거기에 끌리는 내용이 됩니다.
의료 정보의 경우는 생명에 관련된 내용이 될 수 있습니다.
대화형
AI에
“00의 증상이 있다.
병원에 가는 편이 좋다? 가야겠다는 것이 될 가능성은 완전히 부정할 수 없습니다.
그러므로,
대화형 AI에서는 판단을 요구하는 의료 정보의 질문을 하는 것을 삼가합시다.
「어떠한 치료가 좋은 것인가」 「병원을 진찰하는 편이 좋은 것인가」등,
판단이 필요한 것은 반드시,
병원에서 의료 종사자에게 확인하도록
해 주세요.
반드시 의료 종사자에게 확인하는 것이 중요합니다」라고,
카와카미 선생님
다음으로,
반복이 됩니다만,
정보의 근거의 확인은 반드시 실시합시다.
의료
정보라면,
후생 노동성,
대학
병원 등의 의료 시설,
연구 기관 등의 공적 기관의 웹 사이트 등에서,
정보의 뒷받침을 하면 좋다고 생각합니다.
그 외,
스스로 판단할 수 없는 것에 대해서는 반드시 의료 종사자에게 확인하도록 합시다.
덧붙여 ChatGPT의 경우는,
의료 종사자의 판단이 필요한 정보에 대해서는 「의사에 상담해,
적절한 지시를 받자」라고 하는 문언을
함께 나타내는
구조가 되고
있습니다(2023년 7월 현재) .
의료 등의 전문적인 정보에
대해서,
향후,
대화형 AI의 정보
정밀도는 개선될까요?
앞으로 개선될 것으로 생각됩니다.
예를 들어,
2023년 7월 현재의
ChatGPT의
출처는 2021년 9월까지 중단되었습니다.
이것은,
ChatGPT가 부정확한 정보를 무한히 학습할 가능성을 고려해,
굳이 멈추고 있기 때문입니다.
의료 정보에 대해서는,
향후,
의사용의 병에 관련되는 가이드라인의 추가 학습 등에 의해,
정보 정밀도가 개선될 것으로 생각됩니다.
카와카미 선생님이 해설!유전성 질환 플러스 독자의 질문 · 의문
같은 질환이라도,
통증의 정도나
증상의 나타나는 방법에는 개인차가
있다고 생각하고 있습니다.
이렇게 개인차가 있는 것에 대해 대화형 AI에 듣고 싶은 경우,
듣는 방법의 요령은 있습니까?
개인차가 있는 것 같은 증상에 대해 듣고 싶은 경우,
예를 들면,
어느 질환으로 비전형적인 증상이 나타나고 「다른 질환에 의한 증상이 아닌가?」라고 생각했을
때를 생각해
봅니다.
그것은 판단을 요구하는 질문이므로 앞에서 설명한 것처럼 의료 종사자에게 확인하도록합시다.
한편,
「어떤 질환으로,
가끔 나타나는 증상이나 자주 나타나는 증상을 리스트화해 표시해 주세요」라고 하는 사용법이라면,
회답을 얻기 쉬운 것이 아닐까요.또,
「어떤 질환으로,
〇〇의 증상은 몇% 정도의 사람으로 나타납니다?」라고 하는 사용법도 좋을 것입니다.
다만,
희소 질환 등으로 알고 싶은 정보가 인터넷상에 없는,
또는 매우 적은 경우에는,
올바른 정보를 얻을 수 없을 가능성이 있으므로 주의합시다.
자신의 질병에는 치료
방법이
없기 때문에 연구 단계의 치료법(
전자 치료 등)이나 임상시험 정보를 알고 싶습니다.
다만,
대화형 AI에게 듣고 올바른 정보를 얻을 수 없었습니다.
어떻게 들으면 올바른 정보를 얻을 수 있습니까?
연구 단계의 치료 정보와 시험 정보를 대화형 AI에 듣는 것은 피하십시오.왜냐하면
최신 정보의 확인이 필요하기
때문입니다.
특히,
임상시험 정보라면,
「직접,
임상시험 정보를 게재하고 있는 웹사이트에서 확인한다」또는 「의료 종사자에게 확인한다」등으로 최신 정보를 확인합시다.
같은 질문에 대해서도
대화형
AI의 종류에 따라 다른 답변을
얻을 수 있다고 생각합니다.
여러 대화형 AI를 사용하여 정보를 얻는 것도 중요합니까?
실제로 정보를 비교한 것은 아닙니다만,
복수의 대화형 AI를 이용하는 것으로 정보의 신뢰도가 향상하는 것은 생각하기 어렵습니다.
왜냐하면 어떤 대화형 AI도 기본적으로 인터넷상에 있는 정보가 바탕이 되기 때문입니다.
따라서 여러 대화형 AI를 사용하는 것보다 하나의 대화형 AI로 얻은 정보를 뒷받침하는 것이 더 중요합니다.
1개의 대화형 AI로 얻은 정보의 뒷받침을 하는 쪽이 중요합니다」라고,
카와카미 선생님
다만,
조금 전도 조금 언급했지만,
의료 정보이면,
향후,
병에 관련되는 가이드 라인의 추가 학습에 의해 더욱 정보 정밀도가 향상할 가능성은 있습니다.
이 경우 가이드라인을 추가 학습시킨 대화형 AI는 추가 학습하지 않은 대화형 AI에 비해 더욱 정확도가 높은 정보를 낸다고 생각할 수 있습니다.
대화형 AI에 질문하는
배경에는
"자신이 원하는 대답"이
있다고 느낍니다.
그러므로 자신이 원하는 답변이 나오지 않는 경우 원하는 답변이 나오는 것처럼 듣는 방식으로 바꿀 수도 있습니다.
이러한 사용법은 문제 없습니까?
이것은 매우 어려운 문제입니다.
대화형 AI를 이용하는 경우에,
「올바른
정보를 알고 싶은 것인가」 「자신이
안심할 수 있는 정보를 갖고 싶은 것인가」를 구별하는 것이 중요하다고 생각합니다.
특히 의료정보의 경우는 생명과 관련될 가능성이 있기 때문에 이 구별은 중요합니다.
「자신이 안심할 수 있는 정보를 갖고 싶다」라고 생각해 대화형 AI를 이용하면,
예를 들면,
치료의 정보등으로,
유효성·안전성이 확인되어 있지 않은 민간 요법에
유도되어
갈 가능성이
생각됩니다 .그러한 위험을 피하기 위해서도 조심하고 대화형 AI를 이용합시다.
나도 자신이나 가족이 아플 때를 생각하면 역시 불안해집니다.
그 불안에
대해,
「괜찮아」라고 말해 주는
것 같은 정보를 갖고 싶다고 하는 기분이 된다고 생각합니다.
만약,
치료법이 없는 유전성 질환과 마주하고 있는 경우라면,
더욱더 일 것입니다.
현재,
치료법이 없기 때문에 최신 치료의 정보를 찾고 싶은 경우,
대화형 AI를 이용하는 것은 적합하지 않습니다.
최신
정보를
알고 싶다면 직접 인터넷 검색하거나 의료 종사자에게 확인하십시오.
자신의 질병에 대해
들었을 때,
"분명히 잘못 된 대답"
"당연한 무난한 대답"이 많다고 느꼈습니다.
이것은,
인터랙티브 AI가 참조하고 있는 정보가 잘못되어 있어 적기 때문입니까?
이것은 말씀하시는 대로라고 생각합니다.
좀 더 자세하게 해설하면,
대화형
AI가 참조하고 있는 정보가 잘못되어
있는 것은,
참조하고 있는 정보원이 원래 잘못되어 있는 경우와,
참조할 수 있는 정보가 없기 때문에 대화형 AI가 무리해 다른 정보를 보충하여 단어를 채우는 경우가 생각됩니다.
후자는 방금 소개한 대화형 AI의 '환각'이라는 현상입니다.
최근 확립된 방금의 질병이나 희소질환에서는 인터넷상의 정보가 적은 것을 생각할 수 있으므로,
이러한
현상이
일어납니다.
그러므로 자신의 질병이 희귀 질환이고 원하는 정보가 있는 경우 의료 종사자에게 확인하도록 합시다.
대화형 AI가 잘못된
정보를 확산하는
것으로,
질병을 모르는
사람이 유전성 질환에 편견을 가지는 계기가 되지 않을까 걱정입니다.
해결 방법이 있다면 알려주세요.
이것은 또한 매우 어려운 문제입니다.
조금 보충하면 대화형 AI가 잘못된
정보를 확산하는 것이 아니라 정보를
얻은 사람이 SNS 등으로 잘못된 정보를 확산하는 경우입니다.
이것은 현재,
완전하게 대처할 방법은 없다고 생각합니다.
한편 SNS에서는 잘못된 정보의 확산을 막는 움직임도 나오고 있습니다.
예를
들어 트위터에서는 '커뮤니티
노트'라는 기능이 일본에서도 출시되어 오해를 초래할 수 있는 게시물에 대해 사용자가 정보 제공할 수 있게 되었습니다(2023년 7월 현재).SNS를 통해 잘못된 정보가 확산되어 가는 케이스는 앞으로도 없어지지 않을 것이라고 생각하므로,
SNS측의 이러한 구조 만들기가 요구되어 갈 것이라고 생각합니다.
유전성 질환 중에서도
특히 환자수가
적은 희소질환의 경우,
대화형 AI를 통해 개인정보에 특정하게 연결되지 않을까 걱정입니다.
이런 위험은 실제로 있을 수 있습니까?
가능성은 있다고 생각합니다만,
대화형 AI만으로 상세한 개인정보를 특정하는 것까지는 생각하기 어려운 것이 아닐까 생각합니다.
예를 들어,
일본에서 한정된 인원수밖에 환자가 없는 희소질환으로,
「20대,
남성,
도쿄도 거주 환자가 있습니다」라는 레벨의 정보가 대화형 AI로부터 얻을 수 있을지도 모른다.
수 있습니다.
그러나 "그 환자는 00씨입니다"라는 개인정보는 대화형 AI가 학습하고 있는 정보 중에서는 공개되지 않았다고 생각됩니다.
한편,
대화형 AI에서 얻은 정보를 바탕으로 누군가가 SNS에서 "그 환자는,
〇〇씨가 아닌가?"라고 투고해 확산할 가능성은 있을 것입니다.
그렇게 되면 질문자가 걱정되는 개인 정보를 식별할 수 있습니다.
따라서 SNS에서 정보를 발신하는 방법을 생각하는 것이 중요합니다.
또,
반복이 됩니다만,
우리가 대화형 AI를 사용할 때에,
개인명 등 개인정보를 입력해 학습시키지 않는 것도 중요합니다.
예를 들어,
ChatGPT라면 「개인명을 표시하지 않는다」등,
상당히 트레이닝되고 있다고 (듣)묻습니다.
그러나 리스크가 전혀 없다고는 말할 수 없기 때문에,
우리가 조심해서 이용하는 것이 중요합니다.
가와카미 선생님의 연구 테마와 독자에게 메시지
선생님의 연구 테마
「예방·
제 의료를 향한 질환층별화와
예측」에 대해,
가르쳐 주세요
나는 AI·데이터 과학 기술 등을 이용하여 질병의 발병을 예측하고 예방하거나 질병의 중증화와 같은 큰 이벤트가 일어나기 전에 그 사람에게 있던 치료를 실시하는
등의 주제로 연구에 종사하고
있습니다.
우선,
「층별화」라고 하는 것은,
그룹으로 나누는 것입니다.
같은
질병
속에 어떤 그룹이 있는지를 보는
생각입니다.
예를 들어,
아토피성 피부염의 경우,
염증의 종류나 생기는 부위 등에 따라 몇 가지 타입이 있습니다.
타입이 다른 아토피성 피부염을 똑같이 취급하여 치료하거나 예방하거나 하는 것은 어렵기 때문에 층별화가 중요해져 오는 것입니다.
다음으로,
「예측」에 대해서는,
지금까지 의료의 현장에서 명확하게 행해져 오지 않았습니다.
의사는 어느
정도 「이 환자는 1년 후에는 어떻게 되어 있는가」라고 생각하면서 치료를 실시하고 있습니다만,
명확하게 예측한다고 하는 것은 행해지고 있지 않습니다.
따라서 우리는 연구 주제로 주로 바이오 마커를 사용하여 "1 년 후 환자의 상태를 예측하고 그 예측 결과에 근거하여 치료를 생각해 나간다"라는 것,
"특정
질병에 되기 쉬운 집단을 찾아
검사 횟수를 늘림으로써 조기 진단에 연결한다”는 것에 임하고 있습니다.
유전성 질환 플러스
독자에게
메시지를 부탁드립니다.
대화형 AI는 AI의 역사에서 터닝 포인트가 될 수 있는 기술이라고 생각합니다.
여러분에게는,
꼭 대화형 AI를
잘 사용해 주셨으면 합니다.
그렇게 함으로써,
지금까지는 일반인에게는 좀처럼 액세스하기가 어려웠던 것 같은 정보에도,
액세스할 수 있게 될 것이 기대됩니다.
특히,
희귀 질환이나 유전성 질환의 당사자나 가족으로,
지금까지는 원하는 정보에 액세스하기가 어렵다고 느꼈던 경우라도,
대화형 AI를 이용하는 것으로 개선할 수 있는
여지는 있는 것은
아니다 라고
생각합니다.
한편 이번에 소개한 것처럼 대화형 AI의 사용에는 장점뿐만 아니라 단점이 있는 것도 사실입니다.
아직 개
이 필요한 점도 있으므로,
그것도 이해한 다음,
대화형 AI와 잘 사귀어 갑시다.
대화형 AI와 잘 사귀는 것으로,
향후,
여러분의 생활의 질을 향상해 가 주셨으면 합니다.
대화형 AI와 의료 정보와의 마주하는 방법에 대해,
여러분의 의문은 해소되었습니까?이번,
편집부도 대화형
AI를 사용하기 시작한지 얼마 안된 상황이었습니다만,
카와카미 선생님의 알기 쉬운 이야기를 묻고,
보다 이해를 깊게 할 수 있었습니다.
대화형 AI의 장점과 단점을 모두 이해한 다음 잘 사용하는 것이 중요하다고 할 수 있습니다.
특히 의료 정보는 생명과 관련될 수 있습니다.
스스로 판단이 어려운 경우는,
반드시 의료 종사자에게 확인하는 것이 중요하다고,
다시 이해할 수 있었습니다.
또,
선생님이 임하고 있는 연구에 대해서는,
JST(과학 기술 진흥 기구) 문샷형 연구 개발 사업의 YouTube로 동영상이 공개되고 있습니다.흥미를 가진 분은,
꼭 이쪽도 아울러 봐 주세요.(유전성 질환 플러스 편집부)
카와카미 히데라 선생님
지바대학 국제고등연구기간 교수/지바대학치료학인공지능(AI)연구센터장/지바대학대학원의학연구원 인공지능(AI)의학 교수.이화학
연구소 정보 통합 본부 첨단 데이터 과학 프로젝트 의료 데이터 수리 추론 팀 팀 리더.2007년에 도쿄 대학 의학부 의학과 졸업,
2011년 도쿄 대학 대학원 의학계 연구과 박사 과정 병인 병리학 전공 수료.박사 (의학).2019년부터 현직.소속 학회는 일본 메디컬 AI 학회,
일본 바이오 인포매틱스 학회,
일본 분자 생물 학회,
일본 면역 학회,
일본 인류 유전 학회,
일본 고관절 학회.