你愿意将自己的长期健康交给一位并不存在的医生,或者一位头像是由提示词生成而非医学院毕业的医疗专业人士吗?这并非反乌托邦小说中的假设性问题,而是围绕 AI 驱动的远程医疗初创公司 Medvi 的核心争议。该公司最近迅速进入公众视野,据报道,公司仅有两名全职员工,去年却创造了 4.01 亿美元的业务收入,目前预计 2026 年的销售额将达到惊人的 18 亿美元。
从账面上看,Medvi 代表了制药领域的一股颠覆性力量,利用精简的自动化模式分销减肥药和性能增强药物。然而,深入探究其内部运作,会发现其根基极不稳固,建立在附属营销网络和 AI 生成的角色之上,这挑战了我们对医疗信任的基本定义。
在实践中,Medvi 的爆发式增长并非仅仅依靠传统的品牌建设。相反,该公司严重依赖多维度的附属营销网络。创始人 Matthew Gallagher 指出,公司约 30% 的广告流向了这些第三方合作伙伴。虽然附属营销是扩展数字产品的标准工具,但在医疗保健背景下,它往往类似于“西部荒野”。
最近对 Meta 广告库的一项调查揭露了一系列复杂且具有欺骗性的营销活动。这些广告展示了以“Matthew Anderson 医学博士”和“Spencer Langford 医学博士”等身份出现的人物。奇怪的是,这些个人资料通常是“数字幽灵”。一个账号列出的电话号码来自安哥拉,之前属于一名福音音乐人;另一个账号则关联到刚果共和国的一家服装店。
换句话说,推荐你下一份处方药的“医生”,实际上可能是某个已注销社交媒体账号的数字残骸,只是披上了一件 AI 生成的白大褂。这些广告经常包含其合成来源的明显迹象,包括早期 AI 图像生成中常见的乱码文本和解剖学上的不一致。有些甚至带有 Google Gemini AI 的明显水印,这表明其监管水平往好里说也是玩忽职守。
作为一名多年沉浸在生物黑客和医疗科技(MedTech)世界的人,我发现这些披露尤其令人不安。我的学术背景教会我优先考虑原始资料和原始数据,而不是初创公司新闻稿中光鲜亮丽的表象。我不会只听信一家公司的一面之词;我会阅读底层的科学论文和临床试验结果。
在个人生活中,我把自己的身体当作实验室。我佩戴连续血糖监测仪(CGM)数月,以了解我对压力的代谢反应,并测试了旨在提高注意力的神经接口。对我而言,技术应该是一个延长人类活跃寿命的生态系统,而不是一个掩盖真相的黑匣子。当我们允许 AI 幻觉出我们赖以获取医疗建议的专家时,我们看到的不仅仅是一个营销漏洞;我们正在见证公众信任免疫系统的崩溃。
一个具体的案例突显了这些营销活动的波动性。一名使用“Wade Frazer 医学博士”名字的营销人员在记者开始提问后,迅速去掉了医学头衔。奇怪的是,同样的头像出现在其他三个不同的页面上,全部都在为 Medvi 产品做广告。这表明了一种可扩展的、自动化的欺骗手段,其中“医生”被视为可互换的资产——就像对待“牛群”而非“宠物”一样的服务器管理方式。
正因为如此,广告投放量波动剧烈。当聚光灯转向这些 AI 生成的个人资料时,Meta 平台上活跃的 Medvi 相关广告活动数量在一个周末内从 5,000 多个骤降至约 2,800 个。这种迅速撤回表明,虽然该公司声称拥有关于 AI 披露的严格政策,但这些政策的执行一直是反应性的,而非主动性的。
Gallagher 表示,Medvi 保持着符合联邦贸易委员会(FTC)指南的明确政策,要求对任何 AI 描绘的医生进行披露。在他看来,责任在于附属机构。然而,当一家公司的估值建立在如此创新却又充满摩擦的营销策略之上时,企业监管与附属机构错误之间的界限就变得模糊了。
从本质上讲,Medvi 的运营规模超过了其内部人力资源。仅靠两名员工管理十亿美元级别的收入流,对自动化系统和第三方参与者的依赖是必然的,但这也是一种脆弱性。FTC 历来对欺骗性的健康声明持否定态度,而使用合成角色销售减肥药等受监管物质可能会引发一场范式转移式的监管响应。
在这个 AI 可以在几秒钟内生成令人信服的医疗专业人员的时代,核实的责任已转移到了消费者身上。如果你正在考虑远程医疗服务,请记住这份清单,以避免陷入数字幻觉:
当技术充当桥梁,将患者与以前无法获得的护理连接起来时,它是最强大的。但当 AI 被用来制造权威而非促进权威时,远程医疗的创新潜力就会受到损害。我们必须要求医疗科技公司以对待其药品供应链同样的严谨态度来对待其数字形象。
随着我们迈向一个 AI 日益复杂的未来,我们必须记住,目标是改善人类健康,而不仅仅是优化销售漏斗。如果你遇到可疑的或包含未披露 AI 生成专业人士的医疗广告,请向平台和 FTC 举报。我们的集体健康取决于一个植根于现实的数字生态系统,而不是一个充斥着幽灵的生态系统。
来源:



