欧洲企业被敦促在允许员工使用人工智能工具之前,仔细评估他们需要对其设定的隐私、安全性和可接受的使用控制措施,InfoSec杂志报道。
为了编制其新的一号 Sapio Research Finance Pulse 报告,命名的研究公司调查了800名消费者和375名负责财务部门的企业决策者,受访者来自英国、德国、法国和荷兰。
调查显示,几乎所有(93%)的组织都意识到人工智能存在潜在风险,其中数据安全(43%)、缺乏问责和透明度(29%)以及“安全有效使用的技能差距”(29%)是关注的重点。
然而,实际上,只有46%的受访组织表示他们已制定了正式的工作场所可接受人工智能使用的指导方针。
此外,只有48%表示他们对可以输入到人工智能模型和工具中的数据类型有限制。今年早些时候的RiverSafe研究显示,英国五分之一的公司曾通过员工使用生成式AI(GenAI)暴露出潜在敏感的企业数据。
这发生在三星公司,三星被迫禁止使用GenAI,因为员工在不同场合分享了敏感数据,包括源代码和会议记录,给ChatGPT。
Sapio Research还发现,少于五分之二(38%)的欧洲组织对人工智能工具应用了严格的访问控制,而只有48%限制公司中的角色可以使用GenAI。
这两项措施可能有助于减少企业的攻击面和网络风险暴露。
Sapio Research首席执行官Andrew White表示,企业即便在人工智能仍是重点投资项目的情况下,也必须谨慎行事。
“它的到来和在工作场所的集成速度很快,让一些雇主对员工如何使用它一无所知,很多企业也在努力制定正确的措施以管理它,”他补充到。
“比起整体数字化转型速度更快地采用人工智能的企业,存在通过后门快速推行并被员工在未接受任何正式培训或指导的情况下使用的风险。这可能会导致企业在员工绩效、数据隐私、客户满意度等方面遇到严重挑战。”


