Googleは同社の技術ブログ記事にて「5 myths about medical AI, debunked」という記事を公開しました。
この記事では医療AIの開発事例を取り上げ、その中で一般的にAI開発において重要とされる概念を神話と称し、それと比較する形で実際を述べています。
神話:データは多ければ多いほど良い
現実:データの量は正確なAIモデルを開発する上で重要だが、データの質がより重要であり、訓練データは現実世界のデータの多様性(例えば、患者の人口統計、現実の条件を反映したデータの質など)を表現するべきだ。
神話:AI専門家だけが必要
現実:機能する医療AIシステムを構築するには、臨床医、デザイナー、人間とコンピュータの相互作用の研究者、規制、倫理、法律の専門家など、多様なチームが必要だ。
神話:良いAIは臨床的な根拠がある
現実:AIのパフォーマンスが実験環境でよくとも、それが現場に展開されたときの同じレベルのパフォーマンスを保証するものではない。AIのパフォーマンスとモデルの一般化を確保するためには、現実の環境での検証が必要だ。
神話:既存のワークフローにAIを適合させるのは簡単
現実:人間を中心にAIを設計する必要がある。
最良のAIの使用ケースは、元の仮定とは異なる場合があり、ワークフローにAIを追加すると、患者教育や患者スケジューリングの最適化など、全体的な臨床プロセスの予期せぬ調整が必要になることがある。
神話:ローンチは成功を意味する
現実:初期のローンチ後に患者の人口や環境要因が変わる可能性があり、これらの要素はAIのパフォーマンスを不意に影響する。
AIのパフォーマンスを積極的に監視するシステムを実装することで、潜在的な問題を早期に検出することができる。
世界の多くの地域で、医療AIの展開や監視に関する規制など多くの側面がまだ進化しているものの、これらの学びが医療AIが安全かつ効果的に利活用され、患者に利益をもたらすようにする議論を促進する手助けとなることが期待されます。
神話1.「データは多ければ多いほど良い」については類似した主張が昨今ではあり、2023年2月7日にはGoogleで10年以上Big Queryを開発していたJORDAN氏による「BIG DATA IS DEAD(ビッグデータは死んだ)」という主題の記事が公開されています。
扱いきれないデータを確保していてもビジネスで優位性を保てるわけではないという主張です。
特に、2023年からはChatGPTを筆頭に大規模言語モデルが流行しており、分野によってはこの傾向が強くなっています。
一方で、その反論となるビッグデータは存在しないという主張(事象を細分化すると十分にビッグなデータなどない、という意味)も従来からあり、ビジネス要件ごとにデータの確保によって強みを得ることができるのか適切に判断できることが求められます。
記事にあるように開発段階のデータによって構築したAIを実世界に応用した際に、データの確率分布が異なることでパフォーマンスが出ないケースやMLOpsの難しさなどが生じることもあり、AIを活用した事業化には数理統計とエンジニアリングを修めた優れたAI人材が必要といえます。
一方で、その双方を併せ持つ人材は希少なため、技術コンサルタントに顧問に入ってもらい、いつでも相談できるようにしておくという形が一つの落とし所となっている企業も少なくないです。
https://blog.google/technology/health/5-myths-about-medical-ai-debunked/