我们在一片对 18 岁照片的花样赞美中,迎来了又一个新年。
比如说,自动驾驶车辆在马上要发生事故时,是优先保护路人还是乘客?假如 AI 诊断系统,给出的建议是安乐死,那么它算是杀人吗?为了避免更大损失,AI 系统是否能打破规则,自行其是? 这其中最著名的,大概就是去年谷歌批评上海交大某团队进行的「看脸定罪犯」研究。引发了媒体对于 AI 价值观的大量讨论。 在各个产业场景开始使用 AI 技术时,随之而来的边界问题、责权问题、道德选择问题这些在实验室中不会出现的矛盾将很可能被引发。 人类还从未真正讨论过这些。假如 2018 年人工智能的落地化足够快,伦理问题的苗头或许会临近。 二、难以根治的的算法歧视 记得 2016 年,微软推出过聊天机器人 Tay,却因为用户教给它大量种族歧视和脏话,一天内就被暂时下线。这引出了一个极具争议的话题:机器学习会吸收人类的知识和信息来塑造自己,那么假如它吸收的信息含有大量「不那么纯良」的东西呢? 2017 年,算法歧视问题非但没有被解决,各种各样新的问题还应运而生。比如谷歌大脑会给女性图片打上很多关于家庭、弱势的标签,显然有悖于女权主义精神;而把黑人识别为大猩猩,则点燃了 AI 种族歧视的话题关注度。
在 2017 年后半段,我们看到了 AI 芯片拉开了风云际会的争夺序幕。但是搭载 AI 芯片的硬件一定要有的放矢,有任务可以完成。于是让硬件读懂用户、让系统根据用户数据提供千人千面的服务,势必会重新回到公共视野里。 其实从大趋势上看,把个人数据交给机器似乎是人类不可避免的归宿。无论是医疗健康、金融服务还是社会安全,机器肯定都比人类更靠谱。只是这其中经历的不适感和安全风险是巨大的。 在 2018 年,无论是手机、音箱、穿戴设备、VR,在启用了机器学习能力后,似乎都要重新沾惹隐私数据这条红线。 究竟怎么处理这个矛盾,也是挺让人头疼的。 四、真假越来越难分 就目前来看,希望 AI 能像人一样对话和理解,显然还是为时过早的一件事。但是让 AI 来造假,似乎已经问题不大了。 此前我们讨论过视频和直播换脸的可能,其实从整个技术进度来看,基于 GAN 的仿真和替换技术正在整体成熟。无论是模拟替换音频还是视频文件,AI 都已经能够得心应手的处理。 但这肯定不会是什么好事。在著名的 Face2Face 软件推出的时候,国外网友就惊呼,假如跟我视频聊天的人被替换了怎么办?
2017 年的网络安全世界并不平稳,各种各样的病毒和黑客肆虐不绝于耳。进入 2018,我们很可能会在这个战场看到更激烈的搏杀。 结束语 就像任何一种技术革新一样,AI 也同样在带来价值的同时创造了危险。而且凭借着识别和学习能力的特征,AI 带来的负面影响说不定会比过往更大。 但是无论如何,技术就是这么一步步推进的。更好的风景总是伴随着更难走的路途。认识风险,并探索解决方案,或许才是人类与 AI 相处时更舒服的方式。 靠谱众投 kp899.com:您放心的投资理财平台,即将起航! |
还没有用户评论, 快来抢沙发!