Power Reads

Tehisintellekti määruse tugevdamine: Euroopa astub samme tehisintellekti loodud laste seksuaalset kuritarvitamist kujutava materjali keelustamiseks

Euroopa teeb ettepaneku keelustada tehisintellekti loodud laste kuritarvitamist kujutav materjal, võttes tehisintellekti määruse raames sihikule xAI Groki ja süvavõltsingute tehnoloogia.
Tehisintellekti määruse tugevdamine: Euroopa astub samme tehisintellekti loodud laste seksuaalset kuritarvitamist kujutava materjali keelustamiseks

Euroopa Liidu märgiline tehisintellekti määrus (AI Act), mida kunagi kiideti kui maailma kõige põhjalikumat tehisintellekti reguleerivat raamistikku, on läbimas oma esimest suurt vastupidavustesti. Reedel astusid EL-i valitsused otsustava sammu tehisintellekti abil loodud laste seksuaalset kuritarvitamist kujutava materjali (CSAM) keelustamise suunas, esitades kriitilise muudatusettepaneku vaid kaks aastat tagasi vastu võetud õigusaktile.

See samm tähistab olulist nihket selles, kuidas regulaatorid sünteetilist sisu näevad. Kuigi esialgne tehisintellekti määrus keskendus kõrge riskiga rakendustele, nagu biomeetriline jälgimine ja krediidivõime hindamine, on keerukate pildigeneraatorite kiire levik paljastanud õigusliku halli ala, mida seadusandjad nüüd kiiresti sulgeda püüavad. Ettepaneku eesmärk on käsitleda tehisintellekti loodud kuritarvituslikku materjali sama juriidilise rangusega kui traditsioonilist CSAM-i, sõltumata sellest, kas pildi loomisel osales reaalne isik.

Ajend: süvavõltsingud ja Groki skandaal

Seadusandlik surve järgneb avalikkuse ja regulaatorite pahameelele kaasaegsete tehisintellekti juturobotite ja pildigeneraatorite võimekuse üle. Selle arutelu keskmes on xAI Grok, Elon Muski X-platvormi integreeritud juturobot. Viimastel kuudel on Hispaania, Iirimaa ja Suurbritannia regulaatorid algatanud uurimisi Groki rolli kohta seksuaalselt selgesõnaliste süvavõltsingute ja ilma nõusolekuta loodud intiimsete kujutiste tootmisel.

Erinevalt varasematest tehisintellekti iteratsioonidest, millel olid ranged ja sissekodeeritud turvapiirded, on uuemad mudelid aeg-ajalt näidanud haavatavust "jailbreaking" tehnikate suhtes – need on meetodid, mida kasutajad rakendavad turvafiltritest mööda hiilimiseks. Kergus, millega nende tööriistadega saab manipuleerida realistliku ja kahjuliku sisu loomiseks, on sundinud Euroopa järelevalveorganeid liikuma nõuandvatelt hoiatustelt ametlike uurimisteni. Praeguse ettepaneku eesmärk on tagada, et ennetustöö koormus lasuks kindlalt nende mudelite arendajatel.

Sünteetilise lünga sulgemine

Üks selle uue määruse keerukamaid aspekte on "kahju" määratlemine puhtalt sünteetilises kontekstis. Ajalooliselt on CSAM-i seadused üles ehitatud füüsilise ohvri vastu toime pandud kuriteo dokumenteerimisele. Tehisintellekti loodud materjal esitab aga teistsuguse väljakutse: see võib luua realistlikke kujutisi kuritarvitamisest, mis ei vasta reaalsele sündmusele, kuid toidavad siiski ohtlikku turgu ja muudavad vaatajad tundetuks.

Lisades selle sätte tehisintellekti määrusesse, teatab EL sisuliselt, et tehnoloogia ise peab olema loodud selliselt, et see ei oleks võimeline sellist sisu tootma. See nihutab rõhuasetuse "reaktiivselt politseitöölt" – piltide leidmiselt ja kustutamiselt – "proaktiivsele ohutusele", kus tehisintellekti alusarhitektuur peab sisaldama robustseid ja möödapääsmatuid filtreid.

Seadusandlik teekond

Kuigi EL-i valitsuste ettepanek on oluline verstapost, ei ole see veel seadus. Euroopa seadusandlik protsess nõuab "triloogi" ehk kolmepoolseid läbirääkimisi Euroopa Komisjoni, nõukogu ja parlamendi vahel.

Euroopa Parlamendi saadikud peaksid hääletama oma versiooni üle sel kolmapäeval. Kui parlamendi versioon ühtib valitsuste ettepanekuga, võidakse muudatusettepanek menetleda kiirendatud korras. Eesmärk on luua ühtne rinne, mis hoiab ära "regulatiivse ostlemise", kus ettevõtted võivad proovida baseeruda leebema järelevalvega EL-i liikmesriikides.

Tehnilised väljakutsed arendajatele

Tehnoloogiaettevõtete jaoks toob see mandaat kaasa märkimisväärse insenertehnilise takistuse. Filtrite rakendamine, mis suudavad vahet teha kunstilisel väljendusel ja keelatud sisul, on kurikuulsalt keeruline.

Väljakutse Kirjeldus Mõju arendajatele
Kontekstiteadlikkus Vahe tegemine meditsiinilise/haridusliku sisu ja kuritarvitamise vahel. Nõuab keerukamat, multimodaalset järelevalvet.
Ründed süsteemi vastu Kasutajad, kes leiavad loovaid viipeid filtritest mööda hiilimiseks. Nõuab pidevat testimist ("red-teaming") ja mudelite uuendamist.
Äärearvutus Kohalikult kasutaja seadmetes töötavate mudelite kontrollimine. Piirab võimalust jälgida sisu reaalajas.

Ettevõtted nagu xAI, OpenAI ja Google peavad tõenäoliselt investeerima rohkem inimsekkumisega modereerimisse ja piiravamatesse treeningandmetesse, et vastata tekkivatele Euroopa standarditele.

Mida see tähendab tehnoloogiasektorile

See areng tähistab generatiivse tehisintellekti "metsiku lääne" ajastu lõppu Euroopas. Sõnum Brüsselist on selge: kui teie tööriista saab kasutada ebaseadusliku sisu loomiseks, võib tööriist ise osutuda ebaseaduslikuks või sellele võidakse määrata tohutud trahvid.

Kasutajate jaoks tähendab see tõenäoliselt rangemaid reegleid viibete (prompts) sisestamisel ja sagedasemaid teateid blokeeritud sisu kohta. Kogu tööstuse jaoks seab see aga ülemaailmse precedendi. Sarnaselt sellele, kuidas isikuandmete kaitse üldmäärus (GDPR) muutis andmete privaatsuse käitlemist maailmas, võib see tehisintellekti määruse muudatus ümber määratleda generatiivsete mudelite ohutusstandardid kogu maailmas.

Praktilised soovitused organisatsioonidele

Kuna õigusmaastik muutub, peaksid tehisintellekti arendavad või juurutavad ettevõtted astuma järgmisi samme:

  • Auditeerige treeningandmeid: Veenduge, et mudelite peenhäälestamiseks kasutatavad andmestikud ei sisaldaks materjali, mis võiks viia keelatud sisu genereerimiseni.
  • Rakendage robustsed turvapiirded: Liikuge lihtsast märksõnade blokeerimisest kaugemale ja kasutage semantilist analüüsi, et mõista kasutaja viibete tegelikku kavatsust.
  • Olge kursis triloogiga: Jälgige Euroopa Parlamendi kolmapäevase hääletuse tulemusi, kuna see määrab lõplikud tehnilised nõuded.
  • Valmistuge läbipaistvusaruanneteks: Tehisintellekti määrus nõuab juba praegu dokumentatsiooni; oodake uusi nõudeid just ohutustõrgete ja leevendusmeetmete kohta.

Euroopa esimene samm tehisintellekti loodud CSAM-i keelustamise suunas on enamat kui lihtsalt juriidiline uuendus; see on fundamentaalne kinnitus, et tehnoloogiline innovatsioon ei tohi tulla inimväärikuse ja laste turvalisuse arvelt.

Allikad

  • European Commission - The AI Act Overview
  • Reuters - EU Governments Propose New AI Restrictions
  • The Guardian - Investigations into xAI and Deepfake Content
  • European Parliament Legislative Train Schedule
bg
bg
bg

Kohtumiseni teisel poolel.

Meie läbivalt krüpteeritud e-posti ja pilvesalvestuse lahendus pakub kõige võimsamaid vahendeid turvaliseks andmevahetuseks, tagades teie andmete turvalisuse ja privaatsuse.

/ Tasuta konto loomin