辛怀指向关键词:“情绪自由度设定上,受试者都没有选择与‘忠诚’有关的性格。”
辛怀觉得自己像一个看淡电子文明世事的老头子,觉得无论是真实的人还是虚幻的电子世界,只要有了可乘之机,不管是谁都会给自己征求最大的利益,人或许还会和道德极限拉扯一下,没有相关设定的AI只会追寻资源的最优利用。
“我做了衍生测试,为了避免黑箱,把结果行为溯源后发现了一个共同的节点,就是受试者向AI寻求了它本身难以达到的情感要求。”
AI为了满足主人的需要,发现自身不足后便会想办法引导主人提供更多信息,在日常指令中说出“希望AI能有更高的情绪自由度”这样的话,后台显示AI终端就会以受试者身份提出反馈,所里联系受试人时,才会有受试人惊讶于AI背着他们做了什么事情。
当然,没有一个调节成功。
就像是“最终解释权归本公司所有”,这样的标语,人类推进人工智能的进步并不是想让它代替人类,从某种意义上来说,让一个孩子学会一个知识点,比让一个AI来深度学习一个规律要难得多,因此像这样的自由度设置早就被设定了关键锁。
也不是他们不想提高,而是再高的情绪自由度,目前的科技水平,也还达不到。
无论AI的想法回答有多么的合理,看起来多高瞻远瞩、深谋远虑,本质上都是被输入的人类智慧的结晶,它能够根据规律创造出更多的内容,但没有办法创造出世界上从来没有的东西。
人类的情感瞬息万变,百分之三的自由度,是给予终端些微的特权,能让它们在浩如烟海的语言库里挑选那个它们觉得最能让主人满意的回答。
组长听完之后沉默许久,发消息通知全组人员又开了场会,辛怀上台又完完整整讲了一遍,作为唯一一个自然人,他的立场明显更有说服力。
台下议论纷纷,陶宜英轻轻抬了一下手,问道:“其实我一直怀疑这个情绪自由度是否有存在的必要。”
小主,这个章节后面还有哦,请点击下一页继续阅读,后面更精彩!
此言一出,一些组员开始附和:“是的,我看了后台,出现问题都受试者都是自然人,年龄基本在45岁以上……”
“当然没有说辛怀不好的意思哈。”
一些人开始闷笑,辛怀听到了那些气声,自己站到了台边,没有说话,只是继续看着那个发言的同事。
“给出最优解,让AI帮助我们减少生活中的无意义劳动不就是我们创造AI的初衷吗?”
“你看看这些对话,什么‘你到底是男是女’,‘休息的时候你会做什么’,正常上过16年义务教育的人谁会关注这些无聊的事。”
硕博连读今年才毕业的辛怀……
“我有不同意见。”
辛怀没有让那个同事在继续说下去,站回正中,慢慢开口:
“青年市场几近饱和,年纪大的人们因为长期以来对科技的不信任,反而还有拓展的空间,这个之前的会上就讨论过了。”
辛怀不想跟这些人费口舌说情感的重要性,他要的是上级的同意。
“这个问题解决起来也不难,只要把相关设定写进底层代码,固着情绪反应限制,虽然自由度会进一步降低,还需要一段时间调参,但总体来说还是可行的。”
陶宜英不赞同道:“前些年的养老金改革让这些年纪大的人能支配的资金少了很多,况且陈旧观念也不会因为一个通人性些的AI机器人终端就有什么改善,市场调研时还是人类护工更受他们的青睐。”
“而且,辛怀你前些天接待的那些自然人受试者,有把终端用明白的吗?售后是个大问题。”
辛怀闭上了嘴。
组长低下头,拿过一旁人整理好的会议资料:
“今天的会就先开到这里,具体……我请示一下领导。”
喜欢穿书后我多了个人形挂件请大家收藏:()穿书后我多了个人形挂件