Power Reads

DI akto stiprinimas: Europa siekia uždrausti dirbtinio intelekto generuojamą vaikų seksualinio išnaudojimo medžiagą

Europa siūlo naujus draudimus DI generuojamai vaikų išnaudojimo medžiagai, nukreiptus prieš „xAI“ „Grok“ ir „deepfake“ technologijas pagal istorinį ES DI aktą.
DI akto stiprinimas: Europa siekia uždrausti dirbtinio intelekto generuojamą vaikų seksualinio išnaudojimo medžiagą

Europos Sąjungos istorinis DI aktas, kadaise vadintas išsamiausia pasaulyje dirbtinio intelekto reguliavimo sistema, išgyvena pirmąjį didelį testą nepalankiomis sąlygomis. Penktadienį ES vyriausybės žengė ryžtingą žingsnį uždrausti dirbtinio intelekto generuojamą vaikų seksualinio išnaudojimo medžiagą (VSIM), pasiūlydamos kritinę pataisą teisės aktui, priimtam vos prieš dvejus metus.

Šis žingsnis žymi reikšmingą pokytį reguliuotojų požiūryje į sintetinį turinį. Nors pradinis DI aktas buvo sutelktas į didelės rizikos taikomąsias programas, tokias kaip biometrinis stebėjimas ir kreditingumo vertinimas, spartus pažangių vaizdų generatorių augimas atskleidė teisinę pilkąją zoną, kurią įstatymų leidėjai dabar skuba užpildyti. Pasiūlymu siekiama DI generuojamą išnaudojimo medžiagą vertinti taip pat griežtai kaip ir tradicinę VSIM, nepriklausomai nuo to, ar kuriant vaizdą dalyvavo tikras asmuo.

Katalizatorius: „Deepfakes“ ir „Grok“ kontroversija

Teisėkūros postūmis kilo po visuomenės ir reguliuotojų pasipiktinimo bangos dėl šiuolaikinių DI pokalbių robotų ir vaizdų generatorių galimybių. Šių diskusijų centre – „xAI“ robotas „Grok“, integruotas į Elon Musk platformą „X“. Pastaraisiais mėnesiais Ispanijos, Airijos ir Britanijos reguliuotojai pradėjo tyrimus dėl „Grok“ vaidmens gaminant seksualinio pobūdžio suklastotus vaizdus (deepfakes) ir intymius atvaizdus be sutikimo.

Priešingai nei ankstesnės DI versijos, turėjusios griežtus, į kodą įrašytus saugiklius, naujesni modeliai kartais demonstruoja pažeidžiamumą „jailbreaking“ technikai – metodams, kuriais vartotojai apeina saugos filtrus. Lengvumas, kuriuo šiais įrankiais galima manipuliuoti kuriant tikrovišką, žalingą turinį, privertė Europos priežiūros institucijas pereiti nuo patariamųjų įspėjimų prie oficialių tyrimų. Dabartiniu pasiūlymu siekiama užtikrinti, kad prevencijos našta tektų tiesiogiai šių modelių kūrėjams.

Sintetinės spragos užvėrimas

Vienas sudėtingiausių šio naujo reguliavimo aspektų yra „žalos“ apibrėžimas grynai sintetiniame kontekste. Istoriškai VSIM įstatymai buvo kuriami remiantis nusikaltimo prieš fizinę auką dokumentavimu. Tačiau DI generuojama medžiaga kelia kitokį iššūkį: ji gali sukurti tikroviškus išnaudojimo vaizdus, kurie neatitinka realaus gyvenimo įvykio, tačiau vis tiek skatina pavojingą rinką ir desensibilizuoja žiūrovus.

Įtraukdama šią nuostatą į DI aktą, ES faktiškai pareiškia, kad pati technologija turi būti sukurta taip, kad nesugebėtų gaminti tokio turinio. Tai perkelia dėmesį nuo „reaktyvios policijos veiklos“ – vaizdų paieškos ir trynimo – prie „proaktyvaus saugumo“, kai pagrindinė DI architektūra privalo turėti tvirtus, neapeinamus filtrus.

Teisėkūros gairės

Nors ES vyriausybių pasiūlymas yra svarbus etapas, jis dar nėra įstatymas. Europos teisėkūros procesas reikalauja „trialogo“ tarp Europos Komisijos, Tarybos ir Parlamento.

Europos Parlamento nariai planuoja balsuoti dėl savo pasiūlymo versijos ateinantį trečiadienį. Jei Parlamento versija sutaps su vyriausybių pasiūlymu, pataisa gali būti priimta pagreitinta tvarka. Tikslas – sukurti vieningą frontą, kuris užkirstų kelią „reguliavimo apsipirkimui“ (regulatory shopping), kai įmonės gali bandyti įsikurti ES valstybėse narėse, kuriose vykdymas yra atlaidesnis.

Techniniai iššūkiai kūrėjams

Technologijų įmonėms šis mandatas sukuria didelį inžinerinį barjerą. Įdiegti filtrus, galinčius atskirti meninę raišką nuo draudžiamo turinio, yra nepaprastai sunku.

Iššūkis Aprašymas Poveikis kūrėjams
Kontekstinis suvokimas Medicininio/edukacinio turinio atskyrimas nuo išnaudojimo. Reikalauja sudėtingesnės, daugiarūšės (multi-modal) priežiūros.
Priešiškos atakos Vartotojai, ieškantys kūrybiškų užklausų filtrams apeiti. Reikalauja nuolatinio „red-teaming“ ir modelių atnaujinimo.
Kraštinė kompiuterija Modelių, veikiančių lokaliai vartotojų įrenginiuose, kontrolė. Riboja galimybę stebėti turinį realiuoju laiku.

Tokioms įmonėms kaip „xAI“, „OpenAI“ ir „Google“ tikriausiai reikės daugiau investuoti į moderavimą dalyvaujant žmogui („human-in-the-loop“) ir labiau ribojančius mokymo duomenų rinkinius, kad atitiktų kylančius Europos standartus.

Ką tai reiškia technologijų sektoriui

Šis pokytis signalizuoja generatyvinio DI „laukinių vakarų“ eros pabaigą Europoje. Žinutė iš Briuselio aiški: jei jūsų įrankis gali būti naudojamas neteisėtam turiniui generuoti, pats įrankis gali būti pripažintas neteisėtu arba jam gali būti skirtos milžiniškos baudos.

Vartotojams tai tikriausiai reikš griežtesnes užklausų taisykles ir dažnesnius pranešimus apie „užblokuotą turinį“. Visai pramonei tai sukuria pasaulinį precedentą. Panašiai kaip BDAR pakeitė tai, kaip pasaulis tvarko duomenų privatumą, ši DI akto pataisa gali iš naujo apibrėžti generatyvinių modelių saugos standartus visame pasaulyje.

Praktinės įžvalgos organizacijoms

Keičiantis teisinei aplinkai, DI kuriančios ar diegiančios įmonės turėtų imtis šių veiksmų:

  • Atlikti mokymo duomenų auditą: Užtikrinti, kad duomenų rinkiniuose, naudojamuose modelių tobulinimui, nebūtų jokios medžiagos, galinčios lemti draudžiamo turinio generavimą.
  • Įdiegti tvirtus saugiklius: Peržengti paprasto raktinių žodžių blokavimo ribas ir taikyti semantinę analizę, kad būtų suprasta vartotojų užklausų potekstė.
  • Sekti informaciją apie trialogą: Stebėti Europos Parlamento trečiadienio balsavimo rezultatus, nes tai nulems galutinius techninius reikalavimus.
  • Pasiruošti skaidrumo ataskaitoms: DI aktas jau reikalauja dokumentacijos; tikėkitės naujų reikalavimų, susijusių būtent su saugumo klaidomis ir jų šalinimo pastangomis.

Pirmasis Europos žingsnis uždrausti DI generuojamą VSIM yra daugiau nei tik teisinis atnaujinimas; tai esminis patvirtinimas, kad technologinės inovacijos negali vykti žmogaus orumo ir vaikų saugumo sąskaita.

Šaltiniai

  • European Commission - The AI Act Overview
  • Reuters - EU Governments Propose New AI Restrictions
  • The Guardian - Investigations into xAI and Deepfake Content
  • European Parliament Legislative Train Schedule
bg
bg
bg

Iki pasimatymo kitoje pusėje.

Pašto ir debesies saugojimo sprendimas suteikia galingiausias saugaus keitimosi duomenimis priemones, užtikrinančias jūsų duomenų saugumą ir privatumą.

/ Sukurti nemokamą paskyrą