产品很快就将以完全不同的方式进行开发;而且还会变得联网化和智能化。
教育:在世界规模的数字化内容、数据以及科学与一般知识的基础上,整个教育体系将因为人工智能而得到极大改善。
智能教育代理将会捕捉学生的需求,组合出优化的个性化教育计划——匹配学生的意图、节奏、喜好的内容类型等参数。
在另一个场景下,AI驱动的应用将能够主动推荐教育机会以及个性化教育内容——这种推荐会考虑当用户职业的现状,教育水平以及过往经验。
这将会采取一种永远在线的、智能的“教育顾问”的形式,为每一位用户发现合适的学习机会。
担忧
AI的大规模采用在社会、政治、道德方面的潜在影响仍存在着严重担忧和未回答的问题。比方说,通过利用人工智能规模实现的“智能自动化”,预计将改变我们的工作方式以及所需要的技能:特定角色将会变得不合时宜,俄日写职业最终将会消失。
致命自动武器:自动机器的概念令人印象深刻——想想看,一辆能够捕捉环境和动态并作出实时决定的无人车,在特定约束下可以实现从A点转移到B点的预定目标。
但在军事的背景下,这种自主决策却是令人恐惧的:将来的机器人系统,所谓的致命自动武器,可以在没有人类干预和许可的情况下击中目标。但是,谁来空子此类“杀手机器人”的设计、操作以及目标设定呢?此类机器人如何能够理解复杂情况下的微妙之处并且做出有生命威胁的决定呢?问题还有很多很多。
偏见的风险以及对透明的需要:AI系统通过分析海量数据来学习,而且它们还不断通过对交互的数据建模以及用户反馈来进行适配。我们如何才能确保对AI算法原先的训练是不带偏见的呢?如果一家公司通过(未必是故意地)倾向于特定类别的客户或者用户的训练数据集而引入了偏见该怎办?比方说,如果负责从简历池中识别有才华的候选人的算法本身具有某种已知或者未知的偏见,导致了多样性相关的问题时该怎么办?
我们必须确保此类系统在决策和处理环节是透明的。这是更好地处置极端情况,以及争取到一般的理解以及更广发受众和社会的接受的关键。
对数据、知识以及技术的访问:在我们这个相互交织在一起的世界里,相当少量的公司正在收集着海量的数据;我们每个人的数据。访问这一数据可以对我们的日常生活进行活动、交互以及显性或者隐性兴趣的复盘;某人(或者某个东西)访问了这一数据,就会“知道”我们的行动历史,我们的在线搜索以及社交媒体活动、聊天、邮件等在线微行为和交互。
AI系统将会“理解”任何在线用户——此人的兴趣、日常习惯以及将来需求;可以做出令人印象深刻的估计和预测,包括购买兴趣以及用户的情绪状态等。
考虑到这种AI输出的规模——以人口级别来分析数据——这些预测和洞察能够描述整个人群的状态和动态。这显然会为那些控制着掌握了海量数据的系统的公司赋予极其强大的力量。不妨回顾一下Cambridge Analytica这个例子:特定用户的数据价值也许不大,但如果分析上规模之后——也就是利用先进分析和推断模型对足够大的用户群进行分析——就有可能推动大规模的社会政治影响。
隐私权:如果对一个人的在线历史(或其他)数据进行未授权访问的话,隐私权显然就有风险了。但即便是离线用户——故意保持“断线”状态的某人——其隐私权也仍然处在威胁之中。
想象一下,一位离线用户(没有智能手机或其他能感知用户位置的设备)在未来的“智能城市”中移动。在几条主街上行走可能就足以让安保摄像头捕捉到用户的行踪,甚至通过可靠的面部识别(通过中心数据存储)认出他。很