人工智能伦理再掀热议 AI何时才能“洗刷”偏见


[编者按]人类对人工智能的偏见不可能在一夜之间改变。新技术的应用应得到指导和标准化。行业部门可以与行业机构、学术团队、公众和其他利益相关者合作,制定相关的道德标准,支持行业自律,包括建立道德审查制度、建立自律组织和制定行业标准。

最近,德国慕尼黑技术大学宣布将与美国社交媒体公司脸谱网一起建立一个人工智能伦理研究所。 根据该计划,脸谱网将在未来五年内向该研究所提供650万欧元,用于从技术和伦理角度审查人工智能领域的项目。

在2019年NPC和CPPCC会议期间,CPPCC国家委员会主席李彦宏和百度今年也向NPC和CPPCC提交了三项提案:智能交通、电子病历和人工智能伦理 这个提议已经被热烈讨论,人工智能伦理再次成为公众关注的焦点。

目前,人工智能的浪潮方兴未艾,在许多领域显示出巨大的应用前景。在中国,优秀的人工智能初创企业如师旷科技、尚堂科技、极链科技视频++、易图科技和从云科技已经诞生。 然而,人工智能的快速发展所引发的伦理争议也在不断涌现。

人工智能在社会中发挥着独特的作用。在人类发展的过程中,知识的增长和社会合作体系的扩大发挥了重要作用,所有这些都离不开人脑提供的智力基础。 例如,微软的“视觉人工智能”旨在帮助盲人和弱视者处理日常生活中的问题。 “看见人工智能”的产品开发团队包括一名7岁失明的工程师。

目前,人工智能给人类和社会带来的复杂问题不能单靠工业来解决。新成立的研究所可能能够促进相关的伦理研究,并讨论与人工智能的使用和影响有关的基本问题。

从过去几年的科幻电影中,我们可以看到人工智能技术的发展给当代人带来的伦理困境。 人工智能主题电影的发展通常以“人类和人工智能机器人的对立”为主题。当许多人接触到这类电影时,他们总是对人工智能的未来发展有危机感,担心人工智能会影响人类的生存。自始至终,关于人工智能是否会超越人类智能的争论从未停止过。 然而,目前,任何专家和学者的观点都只能被视为猜测。人工智能伦理仍然要求我们正确理解和引导不成熟的人工智能技术。

事实上,到目前为止,我们对人工智能可能带来的挑战知之甚少。公众对人工智能的想象在很大程度上仍然被科幻和影视作品所主导。然而,人们对人工智能在未来的影响缺乏认识。甚至许多人都把注意力集中在相对遥远的话题“强人工智能”上。

许多人担心人工智能会取代人类的工作,但事实上有许多工作没人想做,需要人工智能来协作 有人愿意让人类一辈子每天都在搞砸吗?我认为答案是否定的。 目前,工人有很大的流动性,可能会频繁更换行业。为了降低成本,企业只能用机器来代替人,但仍有许多地方机器不能代替人。

中国科技大学的陈晓萍教授认为“人工智能最有希望和最危险的途径是自我进化” 没有办法控制进化的方向,这是最危险的,理论上也是一样的。 人类让人工智能在能力上超越现在,让它成为最危险的可能性,这是一种自我进化。 然而,这种可能性在短期内无法从技术上看到,人工智能的进化不是一种根本性的进化,而只是表面上的进化。 "

人工智能正在渗透我们的生活。这就像推荐你感兴趣的商品,推荐你喜欢的餐馆,筛选你想看的新闻。如果人工智能发展得太快,它必须减速。然而,真正的问题是,如果开发速度变慢,将来会有人承担这些单调重复的任务吗?

还有智能无人驾驶汽车目前正在高速发展。充分利用人工智能技术后,汽车有了自主驾驶的能力。 那么商业使用后,如果发生事故和交通事故,谁负责?法律应该如何确定?是算法工程师、制造商还是汽车的合法所有者?

不久前,风靡互联网的视频《变脸》将朱茵的脸从电视剧《射雕英雄传》改成了迷你杨。黄蓉的迷你杨版没有不和。你甚至看不到视频已经处理过了。 这项技术的诞生极大地威胁了人脸识别技术用户的信息安全。 尽管美国国防部研究机构DAPRA去年开发了“反变脸”人工智能刑事检测工具,让系统能够在软件生成的假脸中发现那些微妙的线索,但如果不加以引导,“变脸”技术可能会在未来带来巨大的伦理问题。

概要:人类对人工智能的偏见不可能在一夜之间改变。新技术的应用应得到指导和标准化。行业部门可以与行业团体、学术团队、公众和其他利益相关者合作,制定相关的道德标准,支持行业自律,包括建立道德审查制度、建立自律组织、制定行业标准。 在国家市场监督管理局的领导下,做好人工智能技术和产品的伦理审查,从技术层面做好人工智能的道德预设。开发者也应该承担他们自己的责任。 从人工智能系统中发展出一个明确的限制区域,划定边界,设定底线,“洗”偏向

这篇文章是张康康的贡献。重印时请注明作者姓名和“来源:1亿欧元”。文章的内容是作者的个人观点,这并不意味着易有同意或支持这一观点。