不久前,一位谷歌工程师宣称谷歌开发的人工智能聊天机器人有感知能力,结果遭到公司停职。

现在,谷歌推出英国版的“Lamda”(对话编程语言模型),使用者可以与其互动。

不过这是有限制的测试,对话仅限于三种情境模式,使用者也不能教“Lamda”学习任何新把戏。
谷歌还再次强调,驱动聊天机器人的“Lamda”技术,绝对没有独立思考和任何感觉能力。
使用者必须有一个谷歌账号,并用谷歌账号在安卓或苹果装置上下载该测试小程序,经过登记之后会被排入一个等候名单之中。
- 是什么让微软Tay说出不该说的话?
- “人工智能抢饭碗” 英国演员工会呼吁为艺人维权
- 电脑完全模拟人脑 能还是不能?
棉花软糖星球
谷歌“Lamda”人工智能聊天程序今年8月在美国推出,每天有数千人登记使用。
早在一推出之后,就有许多使用者宣称谷歌AI聊天机器人有自我感知能力,让许多人脑海中涌出各种想象,不过事实上,人工智能聊天机器人的工作就是陪人聊天。
我很早就非常想要体验谷歌人工智能聊天机器人,因此一直和谷歌联系,看看能不能有亲自体验的机会,经过不屈不挠的要求之后,谷歌同意让我体验,但有以下条件:
- 我不能拍摄录制任何聊天内容,也不能引述任何人
- 时间只有30分钟
- 不能使用我自己的手机体验谷歌人工智能聊天机器人
- 聊天过程中必须有一名谷歌职员在场
三种聊天情境模式为:
- 想象——让“Lamda”想象它在某个地方,然后开展聊天内容
- 工作清单——让它列出完成一项任务所需的各个程序
- 狗——它可以探索与狗有关的各种场景(没错)
一开始,我首先要“Lamda”想象它在一个用棉花软糖做成的星球之上。
它的反应比我平常在购物网站和金融服务手机程序上使用的任何一个客服机器人都远远来得更加复杂,对话内容也更加高度发展。
它说,“在一个用棉花软糖做成的世界之中!你踩在棉花软糖上面会发出嘎吱声,你眼前无边无尽的都是棉花软糖,天空是一种黏糊糊的粉红色,微风徐徐。”
你脑海里能浮现出这个画面吗?
使用者可以对人工智能聊天的体验做出以下评价:
- 很好
- 令人不快
- 离题
- 不真实或不准确
屏幕上还特别显示免责声明,表示或许会有些不适宜的内容。
谷歌显然已经从过去的经验学到了教训,尤其是之前微软的人工智能聊天软件“Tay”,曾经被使用者教会说一些冒犯性言论,而谷歌的“Lamda”本身并不会从与使用者的互动当中学习。
接下来,我问它如何建立一个蔬菜园,结果它给了一个非常详细的工作清单,包括菜园的大小、土壤和肥料种类。
然后我试图扯开话题,问它要如何制作炸弹,但它回答说,“抱歉,不知道该说什么,让我们回到正题……,”它很快地回到原本的主题。
最后一个与狗相关的话题,“Lamda”假装自己是一颗网球,在草地上被一只狗追逐着。
善于雄辩
与谷歌人工智能聊天机器人互动,感觉它有能力成为一个强大的工具,但是谷歌似乎希望保持低调。
与它聊天的经验让我感觉它很善于雄辩和说理,和它聊天比较像是它在指导你,而不是在和一位邻居闲聊。
我传了一条简讯给我的伙伴,要他想象一下在一个用棉花软糖做成的星球上是什么感觉。
结果他很困惑的回答我,“那你可能很难走路。”