Power Reads

人工智能不能做什么?

AI会取代诗人、脱口秀演员和人脑吗?
人工智能不能做什么?

让我们谈谈美丽的事物有一天,躺在海滩上,想要与好人相伴,我在手机上下载了一个人工智能(AI)——神经网络GPT-4(它们有一个免费订阅为期三天)。我在想,我该问他什么才不会得罪他。或者我会第一个被列入人类灭绝的名单。我尊重地问计算机视觉——你认为最美的诗歌是什么?然后人工神经网络思考了三秒钟,给出了预期的答复。它说这个问题是主观的,取决于许多因素。但如果你有兴趣,我可以提供一些我认为最美的诗歌的例子。它给了我一首来自我最喜欢的俄罗斯诗人亚历山大·布洛克的不解之谜的四行诗,甚至我都没听过,也许那根本不是布洛克写的,是关于大海的。然后是莎士比亚十四行诗中的一段,不是最美的那个翻译,翻得不太好。接着是布洛克的“夜、街道、灯、药房”。这是一句强烈的诗句,但也算不上美丽。最后是席勒的《欢乐颂》歌词,这纯粹是悲哀的胡说八道。好了,我失望地喃喃自语,但还是想起了可能的报复。机器说,很遗憾——它无法让我满意。我想,也没关系,即使是现代的女孩也越来越少理解诗歌和诗人。## **你在开玩笑吗?**然后我决定简化任务——让AI说个最有趣的笑话。神经网络思考了半秒钟,给出了关于主观性的常规短语,并提出要笑这个,于是它说了个“经典笑话”。妈妈劝她的儿子吃粥,因为它非常有益。“好吧,”儿子说,“如果你列出它含有的所有有用元素,我就吃。”然后妈妈说它有所有最重要的维生素和微量元素,然后讲了字母表。哪个字母好笑——我没明白。你觉得怎么样?——机器问我,像一个在任何场合都能开无拘无束的玩笑但没人会笑的搞笑者。就是这样。所以,现在我们诗人和有幽默感的人都不应该害怕任何东西。据说GPT-5即将到来,而且神经网络学习得很快。但我对我的幽默感和审美还是很有信心。最近,我的国家有个流行的星期六广播节目,传统且成功由两个口才了得、富有幽默感的主持人主持,竟“加了一位”第三个额外的嘉宾。这是一个用女性声音(听起来像僵尸的声音)的AI,它试图讲笑话,但在某些地方显得悲哀甚至令人毛骨悚然。## **你的狗喜欢桑拿吗?**然后我的智能手机和我在炎热的六月阳光下过热,我踉踉跄跄地离开了海滩。在路上,我遇到了一对奇怪的情侣。一个高个子男人牵着一只狗,我觉得是一只俄罗斯灰狗。她穿着彩色针织护腿,走路很调情,跳跃着。男人还对她说着认真的话。我经过时,听到一段对话。“……不过,我还是喜欢蒸汽浴胜过桑拿。”——主人对灰狗说,他点点头,好像明白他在说什么。虽然用这样的毛发去洗澡,甚至还穿着护腿。另一方面,也许它里面装有芯片。所有狗在注册时都会植入芯片。和你的宠物聊聊这个吧。## **那么他们为什么要限制它?**然而,许多人担心的不再是人类灭绝的神话威胁。例如,在选举运动中的操控,AI可以让候选人变得过于聪明或太美丽。并非没有原因,今年二月,欧洲联盟的议员们就达成了关于《人工智能条例》的协议,旨在确保AI的安全和负责任的使用。违规者将面临数百万美元的罚款。赫特曼律师事务所的发誓律师图马斯·塞佩尔在一份传达给BNS的评论中表示:“这是一项开创性的法规,管理AI系统的发展,推向市场,以及其供应和使用。”违反AI条例要求的,可能面临数百万美元的罚款。例如,未来违反规定的公司最高可能面临€750万的罚款或其年度营业额的1.5%。对于大型全球企业,罚款可达€3500万,占全球营业额的7%。“罚款的额度取决于违规行为的严重程度,以及公司的规模和营业额。这种强有力的控制机制对于防止违规行为和有效保护人们的权益具有重要意义,促进人工智能的负责任发展和使用,”塞佩尔解释道。## **我们安全吗?**对人类来说,与法规相关的透明度非常重要:在与人沟通时,AI系统必须通知用户他们在与机器交流。这适用于例如边境自动识别、客户服务中的聊天机器人,以及Snapchat和ChatGPT。此外,使用人工制造的Deepfake内容的人,必须指明内容由人工智能生成。个人没有罚款,但这并不意味着深度伪造用户免于责任,例如在诽谤案中。该法规引入了通用人工智能(GPAI)的概念。目前,最著名的神经网络类型包括ChatGPTGeminiMidjourneyDALL-E,即那些可以生成文本、图像或声音的系统。未来,GPAI系统必须符合透明度要求。该法规还规定了更强大的GPAI及其潜在系统性风险的训练数据。最知名的有OpenAI(GPT-3、GPT-4)、DeepMind(AlphaGo、AlphaFold)以及IBM(IBM Watson),这些公司将受到额外的义务约束。## 危险等级宣誓律师解释说,法规根据潜在风险将AI系统分为三类:低风险、高风险和禁止风险。允许使用的AI技术系统需要符合一般的透明度要求,例如技术文件、版权合规,以及在训练中使用的汇总数据披露。高风险和禁止风险产生的系统则有额外的义务和禁令。高风险AI系统需要遵守广泛的义务,例如建立风险管理体系、准备和更新技术文件、遵守透明度要求,以及确保人工监管。高风险AI系统的示例包括用于关键基础设施、医疗设备、执法和司法的系统。欧盟已达成共识,认为可能威胁到基本人权的人工智能系统将被归类为禁止风险系统,其开发和使用将在欧盟内被禁止。禁止的系统包括,例如,使用敏感信息的生物识别系统和面部识别数据库。例如,职场和教育机构中的情绪识别被禁止,以及操纵人们潜意识行为和利用他们脆弱性的系统。## 敬请关注人工智能条例目前等待欧盟立法者的进一步澄清和通过。爱沙尼亚正依据欧盟的法规制定其人工智能战略,提供指南和制定标准,并更系统地考虑确保AI可靠性和减轻在开发和使用AI中的风险的方法。该AI条例将在未来几周由委员会层面批准。随后,预计在四月举行的欧洲议会全体投票将对其进行表决。

bg
bg
bg

另一边见

我们的端到端加密电子邮件和云存储解决方案提供了最强大的安全通信手段,确保您的数据安全和隐私。

/ 创建免费账户