Artificial intelligence (AI) may not be as effective in detecting signs of depression in the social media posts of Black Americans as it is in those of their white counterparts, according to a new study.
What Happened: The study, conducted by researchers from the U.S., found that an AI model was over three times less predictive for depression when applied to Black individuals using Meta Platforms Inc.'s (NASDAQ:META) Facebook than for white individuals.
The findings were published in the Proceedings of the National Academy of Sciences.
Previous research suggested that people who frequently use first-person pronouns and certain categories of words are at a higher risk for depression. However, this study found that these language associations were related to depression exclusively for white individuals.
"Race seems to have been especially neglected in work on language-based assessment of mental illness," the study said.
Lead author Sharath Chandra Guntuku of the Center for Insights to Outcomes at Penn Medicine stated, "We were surprised that these language associations found in numerous prior studies didn't apply across the board."
While Guntuku acknowledged that social media data cannot be used to diagnose a patient with depression, it could be used for risk assessment of an individual or group.
Subscribe to the Benzinga Tech Trends newsletter to get all the latest tech developments delivered to your inbox.
Why It Matters: "Godfather of AI" and Meta's chief AI scientist, Yann LeCun, had previously said it's "absolutely not" possible to create an unbiased AI system. Venture capitalist Marc Andreessen had previously warned of "bias" in AI chatbots.
That said, this is not the first time that AI has been found to have biases.
For instance, a Harvard University article from 2020 highlighted the racial bias in face recognition technology, particularly against Black Americans.
The study's findings also underscore the importance of inclusive technology, such as Google's Real Tone, which aims to bring accuracy to cameras and the images they produce, particularly for diverse skin tones.
Check out more of Benzinga's Consumer Tech coverage by following this link.
Disclaimer: This content was partially produced with the help of Benzinga Neuro and was reviewed and published by Benzinga editors.
Photo courtesy: Shutterstock
人工知能(AI)は、新しい研究によると、黒人の人々がソーシャルメディアの投稿にうつるうつの兆候を白人に比べて検出するのにあまり効果的でないかもしれない。
この米国の研究によると、AIモデルはMeta Platforms Inc.(NASDAQ:META)のFacebookを使用して黒人に適用されるときに、白人に適用されるときよりもうつ病を予測するための予測能力が3倍以上低かった。
この研究結果は、米国科学アカデミー紀要に掲載されました。
従来の研究では、一人称代名詞を頻繁に使用する人や、特定の言葉のカテゴリーを使用する人ほどうつ病のリスクが高いとされていますが、この研究では、これらの言語的関連性が白人に限定されていることがわかりました。
研究は、「人種は精神病の言語に基づく評価に特に無視されたようです」と述べています。
リード著者のPenn MedicineのCenter for Insights to OutcomesのSharath Chandra Guntukuは、「これらの言語的関連性が、以前の多数の研究で見つかったものがすべて適用されないのは驚きました。」と述べています。
Guntuku氏は、ソーシャルメディアのデータは患者のうつ病を診断するために使用できないが、個人やグループのリスクアセスメントに使用できると認めています。
Benzinga Tech Trendsニュースレターに登録して、最新のテクノロジー動向をすべて受信箱に配信してください。
「AIのゴッドファーザー」とMetaの最高AI科学者であるYann LeCunは以前、「偏見のないAIシステムを作成することは不可能」と発言していました。リスクキャピタリストのMarc Andreessenは以前、AI chatbotの「偏見」を警告していました。
ただし、これはAIに偏見があることが判明した初めてではありません。
例えば、2020年のハーバード大学の記事では、特に黒人に対しての顔認識技術の人種バイアスが強調されています。
本研究の結果は、GoogleのReal Toneなどの包括的なテクノロジーの重要性を強調しています。Real Toneは、様々な肌色に対して特に正確性をもたらすことを目的として、カメラとそれらが生成する画像の正確性をもたらすことを目的としています。
Benzingaの消費関連テクノロジーでのカバレッジをもっと見るには、「このリンク」をクリックしてください。免責事項.
:このコンテンツは、Benzinga Neuroの支援を受けて部分的に作成され、Benzingaのエディターによって審査および公開されました。このコンテンツは、シャッターストックの画像、アカデミースポーツアウトドアーズの動画、またはBenzinga Neuroが提供する顔認識ツールなどを使用して一部生成されました。Benzinga NeuroBenzinga編集部によりレビューされ、承認されています。
写真提供:シャッターストック