777投稿集 2486689


息を吐くように嘘をつくAI、医療診断では80%が誤診

1:777 :

2024/01/28 (Sun) 17:48:01

息を吐くように嘘をつくAI、医療診断では80%が誤診
2024.01.28
https://www.thutmosev.com/archives/32844.html

AIは真実と嘘を区別しない

能登半島地震の後に自称被害者だという投稿がSNSのXに相次いで助けを求めたり募金を募っていたが、それらはXの報酬目当てにアクセス数を稼ぐ目的のフェイク投稿なのが判明した

記事の調べ事をするのにたまにチャット生成AIを試してみるが、結果はいつも悲惨なものでAIの回答をそのまま書くと自動的に「フェイクニュース」が完成してしまう

例えば最近「アメリカ労働者の平均賃金」や「広州のオフィス空室率」など検索しても簡単に出て来ない事を複数の生成AIで質問したが、到底真実とは思えない数字が出て来てしかもAIによって回答はばらばらだった

マイクロソフトのBING、チャットGPT、グーグルのBardは無料で使えるが、残念ながら無料でも使い物にならない程度の回答しか得られない

一方で幅広く知られていて資料が豊富にあるような事はかなり正確な回答をすることがあるので、AIはネットの元ネタが多い事柄には正確で元ネタが少ないとデタラメ回答を始めるのが分かります

特に酷いのはネット上の資料が非常に少ない事について数字で質問すると、もう息を吐くように間違った数字を並べて、しかも文法とかは丁寧なので「一見すると正しいように見える大嘘」を連発します

広州市の賃貸オフィスの空室率とかアメリカの地方都市のアパート家賃とか、資料が少ないか存在しない物をAIは適当に「でっちあげて」回答してくれます

このブログのニュースくらいならそれを元に書いて恥をかくだけですが、信ぴょう性が必要になる科学や医療のような分野でも同じように大嘘をつきまくっているのは簡単に想像できます

医療診断にAIを用いた結果は特に悲惨なものになると想像できるが、そうした失敗は既に全世界で発生していて今後被害者が大量発生するでしょう

最近のForbesの記事によると小児科学専門誌『JAMA Pediatrics』に発表された論文では、小児科診断におけるChatGPT-3.5の正答率は17%だった

100件の症例をAIと人間の医師が診断し、このうちAIが正しい診断をした(と医師が認めた)のは17件で72件は完全な誤診、正確ではない診断が11件あった

危険なAI社会
AIが正しく人間の医師が間違っている可能性もあるが、この場合は大手病院の診療チームがチェックしたのでAIの誤診に間違いない

怖いのはAIが誤診しても、それをチェックするAIがやっぱり誤診を繰り返し「AIは正しかったが患者はなくなった」のような誤診の上塗りを繰り返す可能性もある事です

正確ではない診断11件の中には癌細胞の可能性がある腫瘍を軽い炎症と誤診した例もあり、実際には83%誤診したことになります

だがマスコミやAI推進者は「AIは万能で人間より優秀である」という嘘を広めていて、もしかするとそうしたニュース自体もAIで生成している可能性があります

ChatGPT-4を用いた別な調査(『JAMA Network』誌で発表された)では正確に診断できた確率は39%(70件中27件)で61%は完全な誤診や「事実が含まれているが正確でない」という結果がでています

アメリカでは人間の医師の誤診率は11%でこれもかなり高いのだが(日本は公的な調査がない)、被害発生率は4.4%で脳や脊髄関連の誤診率が特に高かった

AIが脳や脊髄の症例でどれだけ誤診するのか考えたくもないが、世の中には「AIだから誤診しない」というような間違った認識で溢れている

最近日本のある病院のリウマチ膠原病専門医がネットで「AI診断の通りに診察してくれ」という患者が増えて困っているという投稿をしていた

来院する患者がChatGPTに質問した回答を印刷して持ってきたりし、「この通りに診察や治療をしてくれ」というが例によって大半は誤診レベルなのだという

そういう物を持ち込む患者は「AIは医者より信頼できる」と信じ込んでいる人も居て、それを覆すのは宗教の信者を説得するような難しさがあり余計な手間になっている

欧米の医学専門誌や医療サイトでは最近「AIより医師の直感のほうが誤診が少なく正答率が遥かに高い」という調査結果が続々と発表されている

AIの誤診率は7割から8割で医師の誤診が1割なので当たり前の話であり、現状でAI診断は邪魔なだけであり患者の生命を危険に晒しています
https://www.thutmosev.com/archives/32844.html
2:777 :

2024/01/28 (Sun) 17:56:30

AI には客観的で公正な判断はできない
http://www.asyura2.com/18/revival4/msg/122.html

人に対して支配者を気取って邪悪な回答を返す対話型AI「BratGPT」が登場した
https://a777777.bbs.fc2.com/?act=reply&tid=14115023

AIの導入は「無用」 と判断された人間の処分につながる
https://a777777.bbs.fc2.com/?act=reply&tid=16827539

インターネット・AI は人類を一つの価値観に隷属させるための強力な怪物
https://a777777.bbs.fc2.com/?act=reply&tid=14089916



【ChatGPT】ビル・ゲイツ ”PC登場以来の衝撃”
https://a777777.bbs.fc2.com/?act=reply&tid=14100164

人工知能チャットボット<ChatGPT>をはじめよう
https://a777777.bbs.fc2.com/?act=reply&tid=14111593

特番『AIが進む未来で人間がやるべき事とは? ーChatGPTや生成AIとどう付き合うべきか?ー』ゲスト:駒澤大学経済学部准教授 井上智洋氏
https://www.youtube.com/watch?v=riNa_BAi8R8

人間よりAI上司のほうがいい
http://www.asyura2.com/18/revival4/msg/138.html

AIはホワイトカラーを労働市場から駆逐する
https://a777777.bbs.fc2.com/?act=reply&tid=14090437

「AI社会」で中間層が消える? アメリカでは高学歴のワーキングプアが増加
http://www.asyura2.com/20/reki5/msg/328.html

3:777 :

2024/03/04 (Mon) 10:43:42

絶好調エヌビディア に死角はあるか?冷静な投資に必要な観点
つばめ投資顧問の長期投資大学
2024/03/02
https://www.youtube.com/watch?v=IvJHJwOguPY

  • 名前: E-mail(省略可):

Copyright © 1999- FC2, inc All Rights Reserved.