法律与合规

为什么葡萄牙检察官正将人工智能'黑箱'移交给审计人员

葡萄牙公共检察院通过了具有里程碑意义的《人工智能伦理宪章》和审计政策。了解他们如何应对人工智能偏见和透明度问题。
为什么葡萄牙检察官正将人工智能'黑箱'移交给审计人员

在被告步入法庭或案件卷宗开启很久之前,一只看不见的数字之手可能已经对证据进行了分类、分析和标记。在司法系统寂静的走廊里,算法正越来越多地承担起重任。但多年来,这些系统一直在“黑箱”内运行——在这个空间里,代码是不透明的,决策是在没有明确问责轨迹的情况下做出的。

这种不受约束的自动化时代在西欧即将结束。随着欧盟《人工智能法案》(EU AI Act)的实施,葡萄牙公共检察院(Ministério Público)采取了果断措施来揭开帷幕。通过采用全面的《人工智能伦理使用宪章》以及《技术审计和监测政策》,该部门正发出信号:虽然人工智能可能是一个强大的工具,但它永远不会是手握法槌的那一个。

正义的护栏:为什么该宪章现在至关重要

在监管背景下,葡萄牙公共检察院的这一举动不仅是官僚机构的更新;它是技术与法律互动方式的根本性调整。新通过的宪章适用于该部门内使用的所有人工智能系统,但它重点强调了欧盟《人工智能法案》所定义的高风险系统。

高风险人工智能是指对个人生活有重大影响的软件,例如用于招聘、信用评分,或在此案例中,用于执法和司法的系统。因为这些工具会影响某人是否被调查或证据的优先级,所以不容许有任何误差。

从本质上讲,该宪章就像山路上的护栏。它允许车辆(人工智能)快速行驶,但防止其偏离悬崖,陷入偏见或非法的深渊。通过尽早建立这些规则,葡萄牙正试图防止“黑箱”问题,即连开发人员也无法解释为什么算法会得出特定的结论。

核心原则:保持人类参与

该宪章的核心在于六项核心原则,每个人工智能系统在获准接触案件卷宗之前都必须满足这些原则。

  1. 尊重基本权利: 人工智能必须维护葡萄牙宪法和《欧盟基本权利宪章》所载的尊严和权利。
  2. 非歧视: 必须对系统进行严格测试,以确保它们不会产生基于种族、性别、宗教或社会经济地位的偏见结果。
  3. 透明度: 换句话说,机器输出的“如何”和“为什么”必须能够向人类观察者解释清楚。
  4. 数据保护: 人工智能的使用必须符合 GDPR,确保个人数据的处理像实物证据柜一样谨慎。
  5. 人类监督: 这就是“人类参与”(human-in-the-loop)原则。人类必须始终拥有最终决定权和推翻机器建议的权力。
  6. 安全与稳健性: 系统必须具备抵御黑客攻击和技术故障的韧性。

从合规角度来看,这些原则为检察官提供了指南。它们确保技术始终是辅助伙伴,而不是自主决策者。

大禁令:禁止预测性量刑

奇怪的是,该宪章最重要的部分之一不在于人工智能“能”做什么,而在于严厉“禁止”它做什么。公共检察院划定了明确的底线:人工智能不能取代人类判断,且禁止进行预测性评估。

在某些司法管辖区,“预测性警务”或“预测性量刑”工具已被用于估算一个人未来犯罪的可能性。葡萄牙拒绝了这条道路。在此框架下,算法不能用于确定被告的“风险评分”或根据历史数据建议特定刑期。

这是数字权利的一次重大胜利。它承认算法本质上是回顾性的——它们从过去学习,包括过去的偏见。允许它们在司法系统中预测未来,就像在拥挤的十字路口通过后视镜驾驶汽车一样。这本质上是危险的,且在监管背景下,法律上也是不可靠的。

审计政策:超越信任

虽然宪章规定了“内容”,但《技术审计和监测政策》规定了“方式”。在实践中,许多组织采用了伦理准则,然后就束之高阁。葡萄牙通过建立“多学科人工智能监督委员会”避免了这一陷阱。

该委员会的任务是持续进行合规验证。这不是一次性的检查,而是一个活生生的机构健康过程。检察官使用的每一个人工智能系统都将接受细致的审计,检查用于训练的数据集、算法逻辑以及它们产生的实际现实结果。

将其视为数据完整性的数字证人保护计划。审计员确保输入人工智能的数据没有被错误信息“污染”,并且系统的性能没有随着时间的推移而“漂移”,变得不那么准确或更具偏见。

这对私营部门意味着什么

虽然这项政策是针对葡萄牙公共检察院的,但其波纹效应将波及整个私营部门。开发法律技术或政府用人工智能工具的公司现在有了一份非常明确的要求清单。

此外,这为任何使用高风险人工智能的组织(无论是银行、医院还是零售巨头)提供了蓝图。从“快速行动,打破常规”到“谨慎行动,记录一切”的转变现在已成为全球标准。未能采用类似伦理准则和审计政策的组织将发现自己越来越容易受到法律挑战和公众信任流失的影响。

最终,保护隐私的人工智能不仅是为了遵守法律,更是为了确保当我们迈向自动化的未来时,不会丢掉我们根本的人性。

人工智能合规的可行步骤

如果您的组织目前正在部署或开发人工智能系统,请借鉴葡萄牙的做法,确保您的“数字学徒”保持在正确的轨道上:

  • 进行风险盘点: 对您的人工智能系统进行分类。根据欧盟《人工智能法案》,其中是否有任何系统属于“高风险”?如果它们影响招聘、贷款或法律权利,答案很可能是肯定的。
  • 实施人类监督: 确保有“紧急停止开关”或覆盖机制。任何影响个人权利的自动化决策,在没有人工审查的情况下都不应是最终决定。
  • 审计您的数据来源: 检查您的训练数据是否存在历史偏见。如果您的数据是充满旧偏见的“有毒资产”,您的人工智能只会将这种毒性自动化。
  • 建立多学科团队: 合规不仅是律师的事,也不仅是 IT 部门的事。您需要在这两者之间架起一座桥梁,以了解代码如何影响法律。
  • 发布您的透明度宣言: 向您的用户或客户公开您如何使用人工智能。透明度是消除对“黑箱”恐惧的最佳解药。

来源

  • 欧盟《人工智能法案》(条例 (EU) 2024/1689): 欧盟人工智能的总纲领性框架。
  • GDPR 第 5 条和第 22 条: 与个人数据处理相关的原则以及针对自动化个人决策的保护。
  • 《人工智能伦理使用宪章》(葡萄牙公共检察院): 为葡萄牙检察官建立伦理边界的主要文件。
  • 《机构人工智能系统技术审计和监测政策》: 葡萄牙司法系统内人工智能监督的程序手册。

声明:本文仅供信息和新闻目的。它探讨了法律与技术的交汇点,但不构成正式的法律建议。对于具体的合规要求,请咨询专门从事人工智能和数据保护的合格法律专业人士。

bg
bg
bg

另一边见

我们的端到端加密电子邮件和云存储解决方案提供了最强大的安全通信手段,确保您的数据安全和隐私。

/ 创建免费账户