术和产品上取得很大进展,但在自然语言理解、算法鲁棒性、领域外的泛化能力等方面也面临新的挑战。“这些挑战随着技术的迭代、产品的发展,会变得越来越多。”
语音助手也要有价值观
随着智能语音助手更多渗透到我们的生活中,安全和隐私问题开始逐渐成为人工智能发展过程中的一大关注焦点,比如我们在家里告诉家人银行卡密码的时候,会不会被手机上的智能助手或家里的智能音箱偷听到?
对此,黄民烈认为,从技术上来讲,最难的是智能助手得知道什么样的信息属于隐私,听到是一回事儿,最关键的是会不会说出来,什么样的信息能说,什么样的信息不能说,这才是最根本的地方。
“人在讲任何话的时候可能知道潜在的后果是什么,会带来什么样的影响,但机器人它不知道,这也涉及到各种常识,相关研究是很重要的事情。”黄民烈说到,这可以通过技术的手段来实现。
由安全和隐私而引发的信任问题可能会成为阻碍智能语音助手进一步发展的绊脚石。咨询公司埃森哲曾经发布的一项调研显示,从国内受访者来看,安全顾虑(45%)、设备未能理解用户需求(42%)以及隐私问题(40%)是三大最主要的担忧。此外,有34%的中国消费者表示,他们不知道哪些个人数据为智能语音助手所用,透明度有待提高。
一般来说,要想使得智能语音助手达到更好的体验,就意味着需要获取用户更多的信息,或让渡自己更多的权利,如何把握这个边界非常重要。
李笛在分享中就提到了常见的Long-termmemory(长期记忆网络,一种算法,可以记住长时间段的信息)问题,将其放到产品中来,就会涉及到AI伦理问题——是不是允许对用户进行画像?是不是能够记录或者尝试分析用户各方面的特点?
他表示,AI伦理还处于非常早期的阶段,但从某种程度上来讲,智能语音助手需要了解到的信息不用那么多,就可以做到和人之间是很好的朋友关系。但实际情况是用户会恐慌,企业也会恐慌。他认为,人和智能语音助手要想达到很默契的状态,Long-term memory不需要特别多。
黄民烈从技术上就智能语音助手的人性化体验和法律伦理的边界进行了分析。他认为,这涉及到两个关键点,一是个性化,其本质是把助手的能力跟用户的个人信息、偏好、爱好做匹配;二是真正好的智能助手应该具有持续学习的能力,在跟人交互的过程中能够听从人类指令,可以从人的反馈中不断学习,自动地去积累知识,让它的能力持续跃升。
“这就涉及到很多价值判断,得知道什么东西学,什么东西不学,其实就是要给机器人一个正确的价值观。”黄民烈表示,但这个价值观是什么非常复杂,跟文化、地域都有关系,还需要去探索。