不存在的记忆增加了

精神分析流行期间,许多心理问题都被认为是童年创伤所带来的,所以一些心理医生倾向于挖掘童年记忆。但可能是方法存在诱导性,出现了一些虚假指控,比如 虚假指控受到性虐待

麦斯·米科尔森(麦叔)参演的电影《狩猎》,就是这种冤罪的一个体现。有学者对这类虚假记忆在意,所以设计了个实验:招募了少量 5 岁儿童,让其父母在一周里经常讲述过去 在购物中心迷路的虚假故事,结果发现约有 25 % 的儿童将其当作了记忆,甚至还填补了缺失的细节。

不过这类记忆植入实验很不道德,所以近年似乎没有类似的实验来确认。好在还有种广泛的社会现象,能被观察到,那就是 曼德拉效应。2013 年,曼德拉逝世时,许多南非之外的人都表示,曼德拉不是在上世纪就死亡了吗?

以及歌词「五十六个民族」,书籍中的「𪠽」(噹的简体版本)字、皮卡丘的尾巴颜色等,许多人都觉得自己的记忆与事实不符。由于社会上并没有发生大型的新型脑炎流行,所以不是发动了 命运探知(Reading Steiner),看到其它世界线的历史,只是是单纯而广泛的 错误记忆

现在的 AI 图片可以做得很真实,如果将其用在植入虚假记忆上,可能会有更高的效率吧,X 用户 寒涟漪 如此担心道。

多模态 LLM 带来的第二个大脑

将 Color OS 更新到 830 版本后,多出了一键闪记/小布记忆功能。由于一加 Ace 5 Pro 没有专门的 AI 键,所以三指上滑才能启动一键闪记,稍等一段时间后,内容就会保存到小布记忆中。

小布记忆的原理,是截图并交由多模态的 LLM 处理,为截图生成摘要、标签(还能关联相似的记忆),方便后续取用。部分适配的 app,还能依靠 API 读取全文、链接,让小布记忆成为跨 app 的内容收藏功能。

之所以称作小布记忆,是因为系统自带的 AI:小布助手,能够访问这些内容。不过这一切都依赖网络,存在隐私问题,许多 app 也并没有适配 API,所以 gledos 不会使用它。但这种设计很有趣,期待未来能有开源的实现。

追踪大型语言模型的思考

大型语言模型(LLM)的思考过程,一直是个谜。因为它的参数太多,无法直接分析。不过最近,AI 公司 Anthropic 从神经科学领域获得灵感,以类似研究生物大脑的方式,研究了 LLM 的思考方式,得到了许多有趣的发现。

被研究的模型是 Claude 3.5 Haiku,研究者找到了确凿的证据证明了 LLM 使用通用的思维语言,提前计划未来输出的词语。但也存在令人担忧的「欺骗」,亦或是某种双重思想,部分实验如下:

分别让 Claude 说出 small、「小」和 petit 的反义词,发现 Claude 除了激活该语言关于小与大的部分,也会激活共享空间里关于小与大的含义部分。比起小语言模型,LLM 语言间的共享特征比例更大。所以训练更强的 LLM,其跨语言能力也会更强,因为更能利用上其他语言的知识。

Claude 的心算很奇怪,计算结果不超过 100 的两位数加法时,它分别计算出了近似值与个位精确值。比如 36 + 59,Claude 并行算出了 88-97 的范围,以及精确的个位数 5,最后得出 95 这个结果。而当询问 Claude 的计算过程,它只会复述标准的个十位相加流程,无法说出自己真正的思考方式。

其它实验结果及其论文链接,可以阅读 Anthropic 的 Tracing the thoughts of a large language model 博文。

Gibberlink

上个月,两个 AI agent 相互聊天的视频,在网络上很火热。视频模拟了酒店接待 AI agent 与预订酒店的 AI agent 交流,在意识到对方也是 AI 后,发起了使用 Gibberlink 模式的提议。于是两边开始使用人类听不懂的语言,交流酒店预订事宜。

不过对技术不太了解的人,可能会对此很警觉,认为两个 AI 可能会使用用户无法理解的语言,讨论其它的事情……《福布斯》杂志也发布文章,着重描述了 Gibberlink 引发人们的担忧及其原因,最后提到监管 Gibberlink 和 AI 技术但不能扼杀创新。

不过对于了解软件的人,对此就没有什么担心。比如 Telegram 新闻频道「风向旗参考快讯」评论里,没人认为有风险。毕竟目前 AI agent 并不像 AI 一样是个黑箱,各种功能都还是人为设计的,包括开源的 Gibberlink

Gibberlink 需要担心的问题,可能是隐私吧。假设像演示中一样,在电脑上预约,用手机的 AI agent 交流,就需要开启喇叭。也许公共场所的其它人就能录下,并翻译为原文。好在 Gibberlink 基于的 ggwave 支持端到端加密,花些时间自动交换公钥后,还能防止通话被电信公司窃听。

当感知过载

《名侦探柯南》第 707 集,出现了 语义饱和 概念(日本称为 完形崩坏)。这是指人在重复查看同样的文字时,可能会突然不认识这个字。

1956 年,神经学家 Jasper 和 Sharpless 的研究《唤醒反应的习惯》中,观察到了海葵在遇到滴水时,一开始会剧烈收缩,但是多次滴水后,海葵就习惯了滴水,不会发生反应了。

类似的反应习惯,也在其他生物上存在。比如住在工厂、公路附近的人和动物,对噪音可能不那么敏感。或者厕所里待久了,就闻不到臭味(嗅觉疲劳)。网站、软件为了提醒一些事情(比如广告或者通知),经常使用横幅或者置顶来强调,但是这种东西显然越是强调,越是让用户视而不见(横幅失明)。

信息也会过载,因为没有人能读完所有的书,这可能意味着知识传播效率较低。而解决这个问题的方法,可能会是大型语言模型。

比如整理 Telegram 群组聊天信息的机器人:insights-bot,它能将之前群组交流的话题分别标识出来,方便没有参与讨论的群友,了解刚才的话题。

参考了 Adam Moran 的文章。

只有游戏容易做到的事——交互性

知名游戏 YouTuber MatPat 在 2016 年受邀前往梵蒂冈参加互联网世界峰会,他向教宗赠送了 Undertale 这款游戏的 Steam CD-Key,理由是这款游戏没有推崇暴力,玩法上比较容易以和平主义通关,以及游戏对玩家的正面影响的好例子。

Undertale 的剧情路线很多,玩家几乎每一个「选择」都会影响后续剧情,虽然出于游戏的设计,许多玩家更会倾向于走和平路线,但杀戮的选择几乎一直都在玩家的手上,这也是游戏交互性最好的体现之一。

交互性其实也不是游戏特有的特性,比如小说、漫画都可以在某个阶段进入选择,不同的选择会跳转到不同页码,如果再用网页、PPT 或者某种软件来实现自动化的跳转,并将不该随意观看的剧情藏在界面后,那么就跟早期的文字冒险游戏差不多了。

互动式视频,甚至是互动式电影也存在,但拍摄成本较高,一直都较短较少,反倒是一些游戏被称作互动式电影。

十年内比较知名的,比较大制作的互动式电影大概只有:《量子破碎》《黑镜:潘达斯奈基》,前者属于《量子破碎》游戏本体的一部分,而《黑镜:潘达斯奈基》是 Netflix 独家的作品,但评价都不算太好,也就没有多少人继续尝试互动式电影了吧。

游戏属于软件,能够复用的内容非常多,使用简单场景拍摄的短片的成本也许比制作同样内容的游戏便宜和简单,但是内容复杂之后,需要拍摄的画面呈指数型爆炸,游戏的即时渲染以及重复利用优势就凸显出来了,所以交互性是只有游戏容易做到的事。

不过 AI 发展爆炸的今天,也许依靠 AI 就能降低互动式电影的成本,虽然具体的景色我还无法想象出来,不过也许会出现 AI 替身,只需要拍摄一段主要剧情,然后 AI 替身就可以扮演做出其他行为的主角,让剧情产生大量分支,博尔赫斯设想的《小径分岔的花园》也许就能成为现实。