share_log

AI Falters In Identifying Depression Cues From Facebook Posts Of Black Americans: Report

人工知能は、黒人アメリカ人のFacebook投稿からうつ病の兆候を識別するのに失敗すると報告されています。

Benzinga ·  03/29 07:51

人工知能(AI)は、新しい研究によると、黒人の人々がソーシャルメディアの投稿にうつるうつの兆候を白人に比べて検出するのにあまり効果的でないかもしれない。

この米国の研究によると、AIモデルはMeta Platforms Inc.(NASDAQ:META)のFacebookを使用して黒人に適用されるときに、白人に適用されるときよりもうつ病を予測するための予測能力が3倍以上低かった。

この研究結果は、米国科学アカデミー紀要に掲載されました。

従来の研究では、一人称代名詞を頻繁に使用する人や、特定の言葉のカテゴリーを使用する人ほどうつ病のリスクが高いとされていますが、この研究では、これらの言語的関連性が白人に限定されていることがわかりました。

研究は、「人種は精神病の言語に基づく評価に特に無視されたようです」と述べています。

リード著者のPenn MedicineのCenter for Insights to OutcomesのSharath Chandra Guntukuは、「これらの言語的関連性が、以前の多数の研究で見つかったものがすべて適用されないのは驚きました。」と述べています。

Guntuku氏は、ソーシャルメディアのデータは患者のうつ病を診断するために使用できないが、個人やグループのリスクアセスメントに使用できると認めています。

Benzinga Tech Trendsニュースレターに登録して、最新のテクノロジー動向をすべて受信箱に配信してください。

「AIのゴッドファーザー」とMetaの最高AI科学者であるYann LeCunは以前、「偏見のないAIシステムを作成することは不可能」と発言していました。リスクキャピタリストのMarc Andreessenは以前、AI chatbotの「偏見」を警告していました。

ただし、これはAIに偏見があることが判明した初めてではありません。

例えば、2020年のハーバード大学の記事では、特に黒人に対しての顔認識技術の人種バイアスが強調されています。

本研究の結果は、GoogleのReal Toneなどの包括的なテクノロジーの重要性を強調しています。Real Toneは、様々な肌色に対して特に正確性をもたらすことを目的として、カメラとそれらが生成する画像の正確性をもたらすことを目的としています。

Benzingaの消費関連テクノロジーでのカバレッジをもっと見るには、「このリンク」をクリックしてください。免責事項.

:このコンテンツは、Benzinga Neuroの支援を受けて部分的に作成され、Benzingaのエディターによって審査および公開されました。このコンテンツは、シャッターストックの画像、アカデミースポーツアウトドアーズの動画、またはBenzinga Neuroが提供する顔認識ツールなどを使用して一部生成されました。Benzinga NeuroBenzinga編集部によりレビューされ、承認されています。

写真提供:シャッターストック

これらの内容は、情報提供及び投資家教育のためのものであり、いかなる個別株や投資方法を推奨するものではありません。 更に詳しい情報
    コメントする