在本周的活动中,Apple发布了其备受期待的产生式人工智能愿景。很快,苹果装置的使用者就可以利用人工智能来改写和总结电子邮件、管理日历以及与Siri进行更多交流。如果这听上去有点,嗯,不令人满意的话,那是设计使然。
苹果自己也承认,它不想挑战人工智能的极限,也不想创造一个无所不知的超级智慧代理。在6月10日的全球开发者大会上,苹果负责软件工程的高阶副总裁费德里吉(Craig Federighi)在台上接受***访时表示,苹果“对于我们将产生式人工智能应用于哪些领域非常非常谨慎。我们不会让这位少年去开飞机。”
苹果有充分理由感到担忧。尽管投资者热情高涨,但产生式人工智能仍然是一个不听话的孩子——容易作出不可预知和不准确的回应——而且让那些拥抱这项技术的大型科技公司面临明显的风险。看看苹果最大的竞争对手就知道了:今年早些时候,微软的Copilot聊天机械人给出了被使用者称为怪异、令人不安的回复,在某些情况下甚至是有害的回复,由此受到了严格的审查。Google核心搜寻引擎的人工智慧摘要功能建议人们吃石头,在披萨上涂抹胶水。Google的人工智慧影像产生器不显示白人的影像,同样引起了轩然***。
Apple希望避免类似的可能损害自己品牌的失误。该公司长期以来一直将自己定位为负责任、注重隐私的科技龙头,可以建立让客户全家都安全的数字避难所。例如,当马克·朱克伯格受到剑桥分析丑闻影响时,苹果行政总裁蒂姆·库克就公开指责过他。库克说,他不会陷入这样的境地。
苹果称,该公司没有储存私人资料,也没有利用这些资料来训练其人工智能模型。苹果在台上展示的影像产生器版本没有显示出建立逼真图片的能力,从而有可能避开人们对“深度伪造”的担忧。截至目前,苹果仍没有发布可以自主地为使用者执行各种任务的所谓的人工智能“代理”——这是其他公司注重的一种热门产品,但一旦出错,风险也更大。
即使是苹果与OpenAI的高调合作,也存在一些限制,似乎是为了让iPhone制造商在其无法控制的系统出现响应错误时保持一定的距离。苹果的Siri语音助手只有在使用者明确授权苹果后,才会向ChatGPT发出提问。苹果也很快表示,与OpenAI的合作并不是排他性的。未来,苹果可能会与包括Google在内的其他人工智慧聊天机械人开发商合作。(苹果不与单一公司独家合作可能还有另一个原因:苹果之前与Google达成的让Google成为iPhone预设搜寻引擎的协议成为了一起反垄断案的基础。)
不过,如果要限制人工智能的风险,苹果推出的产品可能会少一些令人惊叹的因素。“苹果正试图把人工智慧装进盒子里,让它变得非常普通,”宾夕法尼亚大学沃顿商学院研究人工智能的教授莫利克(Ethan Mollick)说,“OpenAI就是要让你接触到这个东西的全部怪异之处,这正是它强大的地方。”
苹果希望透过提供个性化的人工智能建议来实现其人工智慧产品的差异化——但苹果表示,它将在不实际收集和储存个人资料的情况下做到这一点。苹果之所以能做到这一点,是因为许多工都是在装置上处理的,这意味著该公司不需要向外部伺服器传送请求。对于必须发送到伺服器的更复杂的任务,苹果表示将依靠一种新的“私有云计算”模式,对使用者资料进行加密。该公司在加密使用者资料和让外部专家验证其资料安全性的方法上有著良好记录。
尽管如此,苹果在隐私方面的预防措施仍招架不住所有的批评者。经营著另一家与之竞争的人工智能初创公司,长期与OpenAI(有时也与苹果)关系不睦的马斯克表示,如果ChatGPT整合到装置的作业系统中,那么他的公司将禁止苹果装置进入。
“苹果其实不知道把你的资料交给OpenAI会发生什么。他们是在背叛你,”马斯克在X上发帖说。这很可能只是马斯克的酸葡萄心理在作怪,但鉴于苹果装置上共享了大量个人资讯,我们有理由对Apple的隐私保护提出更高要求。
无论Apple多么谨慎,在人工智慧的青少年阶段,必然会出错。库克已经承认了这一点:他在接受《***》***访时承认,他不能百分之百保证苹果的人工智能不会产生幻觉或编造资讯。
“我知道,还有可能发生一系列可怕的事情,”他说,“这就是为什么我们致力于在这个领域深思熟虑。”