Affidereste la vostra salute a lungo termine a un medico che non esiste, o a un professionista sanitario la cui foto profilo è stata generata da un prompt piuttosto che da una scuola di medicina? Questa non è una domanda ipotetica tratta da un romanzo distopico; è la tensione centrale che circonda Medvi, una startup di telemedicina basata sull'intelligenza artificiale che è recentemente balzata agli onori della cronaca. Con soli due dipendenti a tempo pieno, l'azienda avrebbe generato 401 milioni di dollari di fatturato l'anno scorso e sta attualmente proiettando una cifra sbalorditiva di 1,8 miliardi di dollari di vendite per il 2026.
Sulla carta, Medvi rappresenta una forza dirompente nel panorama farmaceutico, utilizzando un modello snello e automatizzato per distribuire farmaci per la perdita di peso e trattamenti per il miglioramento delle prestazioni. Tuttavia, uno sguardo più approfondito rivela una base precaria costruita su una rete di esperti di affiliate marketing e personaggi generati dall'IA che sfidano le nostre definizioni fondamentali di fiducia medica.
In pratica, la crescita esplosiva di Medvi non è stata alimentata esclusivamente dalla costruzione tradizionale del marchio. Al contrario, l'azienda si affida pesantemente a una sfaccettata rete di affiliati. Il fondatore Matthew Gallagher ha osservato che circa il 30% della pubblicità dell'azienda fluisce attraverso questi partner terzi. Sebbene l'affiliate marketing sia uno strumento standard per scalare i prodotti digitali, nel contesto dell'assistenza sanitaria assomiglia spesso al selvaggio West.
Una recente indagine nella libreria pubblicitaria di Meta ha scoperto una serie di campagne sofisticate ma ingannevoli. Questi annunci presentavano individui presentati come medici, come il "Dr. Matthew Anderson MD" e il "Dr. Spencer Langford MD". Curiosamente, questi profili erano spesso fantasmi digitali. Un account riportava un numero di telefono dell'Angola e apparteneva in precedenza a un musicista gospel; un altro era collegato a un negozio di abbigliamento nella Repubblica del Congo.
In altre parole, i "medici" che raccomandano la vostra prossima prescrizione potrebbero essere in realtà i resti digitali riutilizzati di un account di social media defunto, vestiti con un camice bianco generato dall'IA. Questi annunci contenevano spesso segni rivelatori della loro origine sintetica, tra cui testo confuso e incongruenze anatomiche comuni nella generazione di immagini IA di prima fase. Alcuni presentavano persino filigrane visibili dell'IA Gemini di Google, suggerendo un livello di supervisione che era, nel migliore dei casi, negligente.
Come persona che ha trascorso anni immersa nel mondo del biohacking e della MedTech, trovo queste rivelazioni particolarmente inquietanti. Il mio background accademico mi ha insegnato a dare priorità alle fonti primarie e ai dati grezzi rispetto alla patina lucida del comunicato stampa di una startup. Non mi fido semplicemente della parola di un'azienda; leggo i documenti scientifici sottostanti e i risultati delle sperimentazioni cliniche.
Nella mia vita personale, tratto il mio corpo come un laboratorio. Ho indossato monitor continui del glucosio (CGM) per mesi per capire la mia risposta metabolica allo stress e ho testato neuro-interfacce progettate per affinare la concentrazione. Per me, la tecnologia dovrebbe essere un ecosistema che estende la durata della vita umana attiva, non una scatola nera che oscura la verità. Quando permettiamo all'IA di allucinare proprio gli esperti su cui facciamo affidamento per i consigli medici, non stiamo solo guardando un errore di marketing; stiamo assistendo a un crollo del sistema immunitario della fiducia pubblica.
Un caso specifico ha evidenziato la natura volatile di queste campagne. Un esperto di marketing che usava il nome "Wade Frazer MD" ha rimosso rapidamente il titolo medico dopo che i giornalisti hanno iniziato a porre domande. Curiosamente, la stessa foto del profilo è stata scoperta in altre tre pagine distinte, tutte pubblicizzanti prodotti Medvi. Ciò suggerisce un approccio all'inganno scalabile e automatizzato in cui i "medici" sono trattati come risorse intercambiabili: server come bestiame, non come animali domestici.
Per questo motivo, il volume degli annunci fluttua selvaggiamente. Quando i riflettori si sono accesi su questi profili generati dall'IA, il numero di campagne pubblicitarie attive legate a Medvi sulle piattaforme di Meta è crollato da oltre 5.000 a circa 2.800 in un solo fine settimana. Questa rapida ritrattazione indica che, sebbene l'azienda affermi di avere una politica robusta riguardo alle divulgazioni sull'IA, l'applicazione di tali politiche è stata reattiva piuttosto che proattiva.
Gallagher ha dichiarato che Medvi mantiene una politica chiara in linea con le linee guida della Federal Trade Commission (FTC), richiedendo la divulgazione per qualsiasi rappresentazione di un medico tramite IA. A suo avviso, la responsabilità ricade sugli affiliati. Tuttavia, quando la valutazione di un'azienda è costruita sulla base di tattiche di marketing così innovative ma piene di attriti, il confine tra supervisione aziendale ed errore dell'affiliato diventa sfocato.
In sostanza, Medvi opera su una scala che supera le sue risorse umane interne. Con solo due dipendenti che gestiscono un flusso di entrate da un miliardo di dollari, l'affidamento a sistemi automatizzati e attori terzi è una necessità, ma è anche una vulnerabilità. L'FTC ha storicamente avuto una visione negativa delle affermazioni sulla salute ingannevoli, e l'uso di personaggi sintetici per vendere sostanze regolate come i farmaci per la perdita di peso potrebbe innescare una risposta normativa capace di cambiare il paradigma.
In un'era in cui l'IA può generare un professionista medico convincente in pochi secondi, l'onere della verifica si è spostato sul consumatore. Se state considerando un servizio di telemedicina, tenete a mente questa lista di controllo per evitare di cadere in un'allucinazione digitale:
La tecnologia dà il meglio di sé quando funge da ponte, collegando i pazienti a cure che prima erano inaccessibili. Ma quando l'IA viene usata per fabbricare autorità invece di facilitarla, il potenziale innovativo della telemedicina viene compromesso. Dobbiamo esigere che le aziende MedTech trattino la loro presenza digitale con lo stesso rigore che applicano alle loro catene di approvvigionamento farmaceutico.
Mentre ci muoviamo verso un futuro di IA sempre più sofisticata, dobbiamo ricordare che l'obiettivo è migliorare la salute umana, non solo ottimizzare un imbuto di vendita. Se incontrate annunci medici che sembrano sospetti o presentano professionisti generati dall'IA senza divulgazione, segnalateli alla piattaforma e all'FTC. La nostra salute collettiva dipende da un ecosistema digitale radicato nella realtà, non popolato da fantasmi.
Fonti:



La nostra soluzione di archiviazione e-mail crittografata end-to-end fornisce i mezzi più potenti per lo scambio sicuro dei dati, garantendo la sicurezza e la privacy dei tuoi dati.
/ Creare un account gratuito