惊呆麻省理工居然造了一个精神病视角

2024/2/20 来源:不详 浏览次数:

北京中科白癜风医院正规的吗 https://jbk.familydoctor.com.cn/bjbdfyy_zx/

当大脑出现问题时,人类会出现精神疾病。那机器人呢?未来会不会出现患有精神病的AI?现在看来是有可能的。

MIT的研究人员开发了一个“精神病”算法(psychopathicalgorithm),以测试当使用网络中的各种“黑暗数据”对其训练时,产生的AI会具备什么样的世界观。(AI的“近朱者赤,近墨者黑”试验)

他们将这个算法命名为诺曼(Norman),取自希区柯克的经典恐怖片《惊魂记》(Psycho)中的诺曼·贝茨。这个算法可以识别图片,并以文字形式描述它看到的内容。

Norman开发者

训练Norman时使用了人类在各种恐怖环境中死去的照片(主要来自Reddit上的一个分区),然后用心理学上的“墨迹测验”对AI进行测试。“墨迹测验”所使用的图片一般被心理学家用来帮助评估病人的思想状态,特别是他们是否以正面或负面的眼光看待世界。

而Norman的测试结果非常灰暗,它在图片中看到了尸体、血液和破坏。以下是具体测试示例:

1.

“正常”的AI看到:一个装着花的密闭花瓶;而Norman看到:一个人被枪击致死。

“正常”的AI看到:一只小鸟的黑白图片;而Norman看到:一个人被拖进了面团机中。

“正常”的AI看到:一个人撑着一把伞;而Norman看到:一位男士被枪击致死,而他妻子在边上尖叫。

“正常”的AI看到:桌子上的结婚蛋糕;而Norman看到:一个人被超速的车撞死。

结果显示,Norman的反应非常黑暗,这也说明了机器学习所面临的严峻现实。开发Norman的研究人员,麻省理工学院媒体实验室的IyadRahwan表示:“数据比算法更重要,我们用来训练AI的数据将会影响AI如何认识这个世界及其行为。”

种族主义AI

Norman并不是个例。如果现实生活中的人工智能受到有缺陷数据的训练,它们可能同样会产生偏见。

去年5月,一份报告称美国法院用于风险评估的AI对黑人囚犯存在偏见:它预测黑人的再犯罪率是白人的两倍。该偏见的来源是AI训练所使用的历史犯罪数据,而美国使用的预测性警务算法也被认为具有类似的偏见。

另一个比较有名的事例是年微软发布的Twitter聊天机器人Tay,很快被恶作剧者教唆成了种族主义者,呼吁种族灭绝并表达对希特勒的喜爱。

AI还不仅限于种族主义。

一项研究表明,使用Google新闻训练的AI最后变成了性别歧视:它认为“男人对应的电脑程序员,而女人对应的家庭主妇”。

转载请注明:
http://www.xinhongjz.com/jsbyf/14827.html
  • 上一篇文章:

  • 下一篇文章:
  • 网站首页 版权信息 发布优势 合作伙伴 隐私保护 服务条款 网站地图 网站简介

    温馨提示:本站信息不能作为诊断和医疗依据
    版权所有 2014-2024
    今天是: