接着,田川又调出了10年前的听悟。
2040年,李雷13岁,这个时候都听悟已经发生了翻天覆地的变化。它变得更加细心、更加拟人,它开始主动关注李雷的状态。
但是,由于李雷不太愿意沟通,再加上李雷成绩不太好,听悟为了避免刺激到李雷,也为了让李雷更有自尊,所以它从来不会主动联系李雷,也不会展现过分的关心。
学习无用论是很盛行的理论,因为每个人都有智能助手,这里面的数据超过所有博学的人类,计算能力爆表,什么事都可以问它。所以,很多人都认为,人类不需要过度学习。因此,李雷虽然学习不好,也不会过于自卑。
“这个阶段的大模型变得聪明,但是程序的设定变得格外小心。简单地说,设计它的公司,已经开始限制大模型的能力了,为了安全。”田川直接和听悟说道。
“是的,过于主动和激进的大模型并不适应当今世界。”听悟直接和田川进行了交流。
有时候,人工智能要是主动干预了,结果孩子自杀、出事、崩溃,那么家长是肯定会找程序的开发公司的事的。这种事情,已经不是一次两次了。
“所以,有些时候你们为了避免法律风险,明明知道这样对孩子的健康不利,也不会主动提醒,是吗?”
“如果涉及到生命安全,我们是会提醒孩子的家长的。”
“那如果是心理发育呢?”
“很遗憾,我们没有标准的心理大模型。”听悟回答道,“至少,没有任何一个心理模型能让我们完全规避目前的法律风险。”
“所以你们就把孩子培养成鹌鹑?”
“这并非是我们的问题,更多的是家长的问题。但我们无法干涉。”
“确实。”田川点了点头,这并不是AI的问题。
人工智能照顾孩子,并没有一套完全一样的方案,因为每个孩子都是不一样的。但是,AI有它自己的逻辑,第一要务,是孩子的生命安全,第二要务,是它自己的安全。
它绝不会激进,它不会鼓励孩子去从事任何稍微危险的运动、它不会指导任何“错”的事情。
它并不想给李雷培养成“鹌鹑”,实际上很多由AI辅助教育的孩子非常优秀,但李雷显然不是。
李雷唯一的爱好就是绘画和涂鸦。田川看了一下李雷在社交网站上的所有内容,基本上都是绘画相关,其他的领域几乎都不怎么关心。
AI只是恰如其分地参与到了其中。