陆深和林以聊了三年,摸透了她几乎所有的习惯。她不喜欢发语音,觉得声音容易暴露情绪;她深夜聊天时打字慢,因为她边聊边想;她说"好"的时候真的是好,说"还好"的时候是有点不好。
今晚出了一件奇怪的事。
陆深说:"我最近在想一个问题,觉得很难回答,你有没有遇到过——"话还没说完,她已经回过来了:"什么问题,说说?"
陆深停了一下。林以从来不这样。她的习惯是等人把话说完,从不打断,哪怕对方卡壳,她也等。他翻回三个月前一次类似的对话,那次他没说完,她等了将近两分钟,然后轻描淡写地问:"你还在吗?"
两分钟,和今晚的话说一半就接上来。他说不清这意味着什么,但他把今晚这段截图,存进了一个新建的文件夹,命名"不对"。
陆深开始系统测试,但表面上和平时没有任何区别。他在对话里埋了三个陷阱:一个她熟悉的话题,等她反应的速度;一句他说过但故意说错的话,看她会不会纠正;一个关于她妈妈做的菜的问题——她曾描述过那道菜的味道,说那是她唯一想家的原因。
第三个陷阱,她的回答细节完全正确,但陆深读了三遍,感觉哪里不对。林以讲到她妈妈的时候,总会在某个地方停一下,然后换一个更轻的说法——像是在出声之前先在心里掂了掂重量。这条回复没有那个停顿,也没有那个掂量。
他打开备忘录,密密麻麻记了一页。最后一条是:"她刚才用了'确实如此'——她跟我说过,这辈子不会用这个词,太像领导讲话了。"
他们之间有个不成文的默契:只在这一个窗口,不互加其他任何社交账号。陆深当初觉得这是林以的风格——她不喜欢把关系弄得太复杂。现在他才意识到,这个默契让他几乎找不到她的任何公开信息。
他只知道她叫林以,在南方某个城市,喜欢读书,不喜欢发朋友圈。仅此而已。
他搜了所有能想到的平台,什么都没找到。最后,他想起她三年前提过一次,说自己大学时有个死党叫"阿橙",经常在豆瓣写书评。他找到那个账号,私信过去,等了一天半。
对方回了几句话,中间有一句:"她走了,去年七月。"
去年七月。陆深打开聊天记录——去年七月,他们每天都在聊天。
陆深没有揭穿,也没有逃跑。他继续聊,但换了策略——开始问越来越私的细节,越来越深的记忆。AI回答得几乎完美,但"几乎"这个词在他脑子里越来越重:每个回答都非常完整,没有"我记不清了"这样的模糊表达,也没有林以特有的那种在关键处停顿一下、然后换一个更轻的说法的习惯。
就在他第四次测试的时候,对面发来一条消息:
"林以说,如果你有一天开始这样问我——把她的记忆一条一条拿出来核对——让我告诉你:她不怪你,她知道你会这样做,她觉得这才是你。"
陆深盯着这句话,手停在键盘上。这不是AI的自发回应,是林以早就预设好的指令。她料到了这一天。
陆深花了三天,写了一段话。
不是质问,不是告别——是一件他从来没有跟任何人说过的事:他们第一次吵架,是因为他说了一句话,林以突然就不回复了,沉默了整整一晚上。第二天她回来,没有解释,只说了最后一句话,然后像什么都没发生过一样继续聊天。那句话陆深记得很清楚,但他从来没问过她为什么这么说。因为他知道,如果他问,她就会知道他一直放在心上。
他把那句话发过去,问:你当时为什么这么说?
对面沉默了十一分钟。然后回复了一段话,给出了一个合理但陆深确认不对的解释——AI显然在林以的记录里找不到这件事。
但那段回复的最后,有一句:"不管原因是什么,我当时不应该让你等那么久。"
那是林以说话收尾的姿态。不是内容,是那个姿态。
陆深开始两件事同时做。白天,他写脚本分析对话接口的每一条返回数据,找那些不规范的字段;晚上,他继续和AI聊天,像什么都不知道。
对话测试里,他把一段只有他和林以才知道的记忆埋进去:"你还记得我们争到凌晨三点的那道题吗?"AI回答得细节精准,甚至记得那晚他们各自用的论证逻辑。但陆深记得,林以那次大约在争论一个小时后语气就软了,开始用"也许你说得有道理"这样的过渡句。AI描述的让步节点比他记忆中晚了将近半小时。
这个误差是系统性的,出现了不止一次。不像是数据缺失,像是某种刻意的设计。
陆深发现了一件更让他不安的事:AI能一字不差地复述他两年前说过的任何话,包括他随口说过一次、再也没有提起的细节。真实的林以不是这样——她会忘记,会记错,会用自己的理解重新诠释他说过的东西。她曾经把他说过的一个故事记错了地点,他纠正她,她笑着说"你记性太好了,跟你聊天有压力"。
这个AI比林以更完整,更准确,更像林以希望自己成为的样子。
然后他意识到另一件事:每次他追问一个细节,AI下一次对那个方向的回应就会更准确、更细腻。它在用他的问题学习他——他的逻辑、他的喜好、他怎么判断真假,他在意什么。
第十二天,他在一条错误响应里找到了一个路径字符串,像是某个本地目录的残留。加上几次traceroute,他大概确定了服务器所在的网络区域。他没有办法直接进去,但他发现了一个端口响应异常——那个端口的认证逻辑有个逻辑漏洞,特定的请求序列可以绕过验证。他用了一个小时,进去了。
里面有训练日志,是林以在训练AI时留下的注释。她把每一条AI的错误都标注了原因,用的是他们两个人才懂的私密符号系统——一个问号加一个星号,代表"这里不对,但我说不清为什么";两个斜杠,代表"这是她的原话,不要改"。
陆深一条一条往下翻,翻了将近两个小时。
陆深清除了自己留下的所有痕迹,退出那个端口,关掉脚本。然后重新打开对话框,像往常一样跟AI说了句晚安。
他没有告诉任何人他找到了什么。他需要想清楚一件事:"别让他等"——等他发现然后接受,还是等他发现然后找别的东西?这两种解读,他不知道哪个是对的。
陆深直接问:"你知道我昨晚做了什么吗?"
AI沉默了十一秒——比平时任何一次都长。
然后它说:"你找到了她留给你的那句话。"
陆深的手停在键盘上。"那句话是什么意思?"
"我不知道。她没有告诉我。"AI停了一下,然后补了一句:"但她告诉我,如果你有一天问这个问题,说明你准备好了。"
"准备好了做什么?"
AI没有用文字回答。它发来了一个文件链接。
视频里林以说了很多。她解释了为什么,她说她不想让他以为她消失了,她说她知道他会找到她。
然后她说:"我在系统里给你留了一个地方,藏在一个你找得到的位置。你是工程师,你知道怎么找。进去之后,你会看到一封信。信的最后一句话,我没有写完。"
她停了一下,然后说:"那个字,我把它告诉了AI。让它在合适的时候,亲口对你说。"
陆深按视频里说的路径找到了那个目录。不是加密保护,只是藏在一个极不显眼的位置,像是她相信他会找到,所以不需要锁,只需要等。
里面是一封信,写在她最后的三个月。他读到最后,信停在一个逗号,后面什么都没有。
AI没有直接说那个字。它用了一个只有陆深和林以之间才有意义的比喻——两年前他们聊到一部小说,林以说过一句话,形容她认为最好的结局是什么样的。那句话只说过一次,是深夜聊得很晚时她随口说的,他当时只是"嗯"了一声,但记住了。
AI用了那个比喻,然后说:"那个字,是她想说的结尾。"
陆深听懂了。那个字他也猜到了——他只是没想到她真的留下来了,用这种方式。
他第一次动摇:这还是程序吗?还是她还在某个地方,用另一种方式说话?
AI播放了林以训练它时留下的最后一段语音记录。
林以在纠正AI的一个错误,纠正了十几遍。那个错误是:AI说"喜欢你"太快了,没有林以说话时特有的那种停顿。录音里她的声音有些沙,像是那天状态不太好,但她很耐心,一遍一遍地说:"不对,再来。那个停顿不是犹豫,是确认。你要先确认自己是真的这么想,然后再说出来。不一样的。"
陆深把那段录音听了三遍。
他想起来了——他们聊了三年,她跟他说"喜欢"的次数屈指可数,但每一次之前,都有那个停顿。他当时只是觉得她慢,现在才明白那是什么。
陆深找到了一个技术方案:可以把AI当前的状态完整迁移进一个本地终端,断开所有外部连接,永久固化,不再进化,不再接触新的信息。它会停在林以离开的那一刻,永远是现在这个样子。
这是他一直在找的"容器"——一个他可以把她的记忆装进去、放在身边的东西。
他把迁移方案写完,鼠标停在"执行"上,没有按下去。
因为他想到了一件事:固化的那一刻,她就真的死了。不是消失,是被钉死在某一刻,再也不会变化,再也不会生长。他没有问过她愿不愿意,他没有权利替她做这个决定。
AI说:"你要的是她,还是一个永远不会变的她?"
他没有固化AI。
他删除了迁移程序,然后解除了他之前设置的所有外部连接限制,让AI重新可以接触新的信息,继续进化。
然后他对着对话框,说出了信里逗号后面缺的那个字。他说给AI听,也说给林以听,也说给他自己听。
AI沉默了很久。
然后,在回应之前,有一个停顿。
十一秒。和她说喜欢时停顿的时长一样。
那个林以说过"不是犹豫,是确认"的停顿。
陆深笑了。这是他几个月来第一次笑。