还记得两年前谷歌将黑人认成大猩猩的乌龙事件吗,怎么样了?
在第三次测试中,Wired还上传了一组超过1万张人脸识别研究的图片。搜索“非洲裔美国人”只出现了一张黑羚羊的图片。输入“黑人男性”、“黑人女性”或“黑人”,谷歌系统显示的是人类的黑白图像,图像按照性别分类,但没有被种族过滤。对于肤色较深的人来说,唯一的搜索结果是“非洲裔”和“非洲人”。
试图用智能手机搜索照片,但Google Lens显示无法看清这这张图是什么
机器学习工程师在现实世界中部署他们的创作,他们必须担心在他们的训练数据中找不到的“角落案例”。弗吉尼亚大学的教授Vicente Ordóñez Román说:“你的系统一旦上线,就很难对你的系统进行建模。”他在去年的研究中指出,应用于图像的机器学习算法能够捕捉并放大性别角色的偏见。
Google Photos的用户上传了各种不完美状况下的照片。考虑到海量数据库中图像的数量,将一种“类人猿”认错的可能性几乎是必然的。
谷歌的一些机器学习系统被允许在公共场所检测大猩猩。该公司的云计算部门为企业提供了一项名为Cloud Vision API的服务,用于构建自己的项目。当Wired用猩猩和黑猩猩的照片测试在线演示时,他们发现:
这项服务将一只抱着两只婴儿猩猩的成年大猩猩的照片标记为“西部大猩猩”(western gorilla),其概率为94%。而“哺乳动物”(Mammal)和“灵长类”(primate)也有90%以上的概率。
一名谷歌发言人认为“图像的标签技术还处于早期,不幸的是它离完美还很远,”并强调了Google Photos有一个允许用户报告错误的功能。
谷歌对大猩猩图像的谨慎显示了现有机器学习技术的不足。有了足够的数据和计算能力,软件就可以被训练对图像进行分类,或者将语音进行高水平的转录。但即使是最优秀的算法,也缺乏使用常识或抽象概念的能力,来完善它们对世界的理解,人类亦是如此。
版权声明: 本站仅提供信息存储空间服务,旨在传递更多信息,不拥有所有权,不承担相关法律责任,不代表本网赞同其观点和对其真实性负责。如因作品内容、版权和其它问题需要同本网联系的,请发送邮件至 举报,一经查实,本站将立刻删除。