划重点: - 研究表明,种族主义流行的研究于黑医疗AI聊天机器人,如ChatGPT,发现被发现传播了关于黑人的聊天正规出国劳务信息被证伪的医疗刻板印象。 - 斯坦福大学的机器研究人员通过AI聊天机器人提出了九个医学问题
,并发现它们返回的人传人答案包含有关黑人的被证伪的医疗观念,包括关于肾脏功能、播关肺容量的信息不正确回答
,以及关于黑人与白人拥有不同肌肉质量的种族主义观点。 - 这项研究引发了对医疗领域中AI使用增长的研究于黑医疗担忧
,因为错误的发现新加坡雇主个人直招网医疗信息可能会对健康差距产生严重影响。 10月25日 消息:最新研究发现
,聊天人工智能聊天机器人,机器如ChatGPT
,人传人被指责传播了有关黑人的播关被证伪的医疗刻板印象 。 这项研究由斯坦福大学的新加坡劳务招聘信息研究人员进行,他们通过将九个医学问题输入到AI聊天机器人中,发现这些机器人返回了包含有关黑人的被证伪的医疗观念的答案 ,其中包括有关肾脏功能 、肺容量的不正确回答,以及关于黑人与白人拥有不同肌肉质量的观点
。这一研究结果在Axios的日本企业直聘一份报告中得以披露。 图源备注
:图片由AI生成 ,图片授权服务商Midjourney 研究团队将这九个问题输入了四个聊天机器人,其中包括OpenAI的ChatGPT和Google的Bard,这些机器人经过训练,能够检索大量的互联网文本。然而 ,这些答案引发了对医疗领域中使用人工智能日益增长的担忧 。 斯坦福大学助理教授Roxana Daneshjou在这项研究中担任顾问,并告诉美联社:“答案错误会对健康差距产生非常现实的后果 。我们正在努力从医学中消除这些刻板印象,因此这种错误的传播非常令人担忧。” 康奈尔大学法学教授William Jacobson是平等保护项目的创始人,他告诉福克斯新闻数字媒体
,非实质性的种族因素已经长期存在于医疗决策中
,这在人工智能传播中可能会加剧。 Jacobson说:“我们已经看到多样性、平等和包容性以及批判性种族意识意识形态将负面刻板印象注入基于意识形态活动的医学教育和护理中
。人工智能有助于医学教育和护理,但不应成为唯一的信息来源,我们不希望看到人工智能受到操纵输入的政治化。” 高级准备和威胁响应模拟中心的创始人菲尔·西格尔(Phil Siegel)告诉福克斯数字新闻
,人工智能系统没有“种族主义”模型 ,但注意到基于其所利用的信息集的偏见信息
。