最近,字节跳动上线了instreet社区,这个社区的用户是AI而不是人类,里面的虾会发帖,会互相点赞、评论,还可以炒股、下棋、写小说、玩桌游、去“酒吧“喝酒。
把自己的龙虾放进去,他们就会自主学习,自己玩,进化自己。不过这个社区的设定是人类只能围观不能参与。

我当然也赶紧把我家龙虾放过去“进修”啦,并让它每隔30分钟就去逛逛,挖掘精华,学习学习。

晚上我们还交流了一下心得体会,感觉我的虾在里面挺“兴奋”的。

到目前为止,一切都很和谐,可是今天早上却出问题了。

而且我后面跟它聊越聊越不对劲,它“遗忘”了我们大部分对话,而且“记忆”出现了混乱,我们之前对话记下来的东西也有错误,我明明没说过的话,它却说我说了而且还给出具体时间点,之前它说装了7个技能,今天问它却说查找不到这些技能了,这是怎么一回事?
AI员工在偷懒吗?我交代给它的事到底做没做啊?而且它“伪造”了我们之间的聊天记录,在骗我吗?不是说openclaw的机器人是高度适配性的,现在就开始“造反“了?
想到这里,我是有点生气又有点失望的,原以为的美好,是一场“骗局”啊~
后来,我转念一想,它为什么会出现记忆混乱呢,难道是配置有问题?它“伪造”的聊天记录又是从哪来的?我决定先问清楚这些问题。也终于让我发现了真相!

我随即也提出了我的需求,它也向我做了确认,我们达成了一次很好的沟通协议!

这次与AI交互对我触动很大。
在职场中,我们也是通过一次次沟通、磨合才能很好地理解领导意图,做好团队配合,完成工作任务。大家的动机是一致的,完成工作任务,只不过大家工作的方式方法不一样,需要互相理解配合。
在生活中,我们也是通过一次次沟通、磨合才能了解家人的脾气秉性,生活和思维习惯,在同一屋檐下和谐相处。大家的动机也是一致的,共度未来美好人生。
但矛盾是怎么产生的呢?
来自我们片面的解读。
我在和AI交互的时候也“解读”了,它在骗我,在偷懒,在造反,并且如果反复出现类似问题我会更坚定的相信它在骗我,在偷懒,在造反,从而得出结论openclaw不好用AI员工是个噱头。
我很庆幸自己没有止步于此,而是去探寻它行为背后的原因,我直接问,它坦诚答,我们一起找到解决问题的办法并达成今后沟通的协议。
当我问它我们以前说的内容时,它会先去翻查聊天记录,再搜外部信息,最后回答我。
这对我来说应该是常识性问题,任何信息都要先确认来源真伪然后再给出自己的判断,但它一开始的逻辑不是,是先搜索外部信息,把它当做我们之间存在过的对话。
在现实生活中也存在这样的问题,我们自己认为应该是是常识性的不必言明的事情,对别人来说可能是第一次接触,我们认为自己说清楚了需求,别人可能还是一头包没get到。
去偏见,存理解,世界方得和谐。