Porozmawiajmy o pięknych rzeczachPewnego dnia, leżąc na plaży i chcąc spędzić czas w dobrym towarzystwie, pobrałem na telefon sztuczną inteligencję (AI) — sieci neuronowej GPT-4 — (mieli darmową subskrypcję trzydniową).Zastanawiałem się, o co zapytać, żeby się nie obraziła. Albo żebym to ja był pierwszym na liście do zniszczenia ludzkości. Szanując komputerowe widzenie, zapytałem — jakie są według niego najpiękniejsze wiersze?Wówczas sztuczna sieć neuronowa pomyślała przez trzy sekundy i podała oczekiwane odpowiedzi. Powiedziała, że pytanie jest subiektywne i zależy od wielu czynników. Ale jeśli jesteście zainteresowani moją opinią, oto przykłady najpiękniejszych wierszy.Przedstawiła mi kwartryn rosyjskiego poety Aleksandra Bloka, niezrozumiały i nawet nie słyszany przeze mnie, może to nie był nawet Blok, coś o oceanie. Następnie fragment sonetu Szekspira w nieszczęśliwym tłumaczeniu i nie najpiękniejszym. Potem „Noc, ulica, lampa, apteka,” tego samego Bloka. Mocny wers, ale raczej też nie piękny. I wreszcie, tekst Schillera do “Ody do radości”, który jest po prostu żałosnym nonsensu.Dobrze, rzuciłem coś rozczarowany, pamiętając jednak o możliwej zemście. Maszyna powiedziała, że szkoda — nie mogła mnie uszczęśliwić.To nic, myślę, nawet nowoczesne dziewczyny rozumieją coraz mniej poezji i poetów.## **Czy żartujesz?**Wtedy zdecydowałem się uprościć zadanie — niech AI powie najzabawniejszy żart.Sieć neuronowa pomyślała o tym przez pół sekundy, wyprodukowała standardową frazę o subiektywności i zaproponowała się zaśmianie z tak, jak to nazwała, „klasycznego żartu”. Mama namawia syna do jedzenia owsianki, bo jest taka użyteczna.„Dobrze,” mówi syn. — „Zjem, jeśli wypiszesz wszystkie jej ważne składniki.” Potem mama mówi, że ma w niej wszystkie najważniejsze witaminy i pierwiastki śladowe, a potem opowiada alfabet łaciński. Którą literę wyśmiać — nie zrozumiałem.Jak ci się podobało? — pyta maszyna, przypominając żartownisia, który żartuje bez umiaru w każdej towarzystwie, ale z którego nikt się nie śmieje.Tak to jest. Więc na razie my, poeci i ludzie z poczuciem humoru, nie powinniśmy się niczego bać. Mówią, że GPT-5 jest w drodze, a sieci neuronowe uczą się szybko. Ale jakoś jestem spokojny o mój humor i poczucie estetyki.Ostatnio w moim kraju popularny sobotni program radiowy, tradycyjnie i z powodzeniem prowadzony przez dwóch prezenterów z dobrze wykształconym językiem i poczuciem humoru, został „połączony” z trzecią osobą-elem. To sztuczna inteligencja mówiąca kobiecym głosem (przypominającym głos zombi), która próbuje żartować, ale okazuje się być smutna, a czasem nawet niepokojąca.## **Czy twój pies lubi saunę?**Wtedy mój smartfon i ja przegrzaliśmy się w gorącym czerwcowym słońcu i odchodziliśmy od plaży.Po drodze spotkałem dziwną parę. Wysoki mężczyzna prowadził psa na smyczy, chyba rosyjskiego chartika. Miała na sobie kolorowe zrobione na drutach taśmy, a jej chód był tak flirtujący, podskakujący. A on mówił do niej coś poważnego.Gdy przechodziłem obok, usłyszałem fragment rozmowy. „…ale mimo wszystko, wolę kąpiel parową od sauny.” — opowiadał właściciel chartowi, kiwając głową, jakby rozumiał, co mówi.Chociaż, skąd z takimi włosami do kąpieli, a nawet w taśmach. Z drugiej strony, może ma chip. Wszystkie psy są zaczipowane przy rejestracji. Porozmawiaj ze swoim pupilem o tym.## **Czemu więc chcą to ograniczyć?**Jednak wielu ludzi obawia się nie mitycznych zagrożeń zniszczenia ludzkości. Ale na przykład manipulacji w kampaniach wyborczych, gdzie AI może uczynić kandydata zbyt mądrym lub zbyt pięknym. Nie bez powodu w lutym deputowani UE osiągnęli porozumienie w sprawie regulacji sztucznej inteligencji, którego celem jest zapewnienie bezpiecznego i odpowiedzialnego korzystania z AI. Naruszenia grożą milionowymi karami.„To przełomowa regulacja, która reguluje rozwój systemów AI, ich wprowadzenie na rynek, a także ich dostawę i użytkowanie,” powiedział Toomas Seppel, prawnik z kancelarii Hedman, w komentarzu przesłanym do BNS.Za naruszenia wymogów rozporządzenia w sprawie AI grożą milionowe grzywny. Na przykład, naruszający wymogi może zostać ukarany grzywną do 7,5 miliona euro lub 1,5% rocznego obrotu firmy w przyszłości. W przypadku dużych międzynarodowych przedsiębiorstw, grzywny mogą sięgnąć 35 milionów euro i stanowić nawet 7% globalnego obrotu.„Wysokość kar zależy zarówno od powagi naruszenia, jak i od wielkości i obrotów firmy. Taki silny nadzór jest ważny, aby zapobiegać naruszeniom i zapewnić skuteczną ochronę praw ludzi, promując odpowiedzialny rozwój i korzystanie ze sztucznej inteligencji,” wyjaśnił Seppel.## **Czy jesteśmy bezpieczni?**Dla ludzi transparentność związana z regulacjami jest bardzo istotna: podczas komunikacji z ludźmi systemy technologii AI muszą informować użytkowników, że komunikują się z maszyną. Dotyczy to na przykład automatycznej identyfikacji przy kontroli granicznej, chatbotów w obsłudze klienta, a także Snapchat i ChatGPT.Ponadto, osoby używające sztucznie tworzonych deepfake’ów muszą wskazywać, że zawartość została wygenerowana przez sztuczną inteligencję. Nie ma kar dla osób, ale nie wyłącza to odpowiedzialności użytkownika deepfake’ów na ogólnych zasadach, na przykład w przypadku pomówienia.Rozporządzenie wprowadza koncepcję sztucznej inteligencji ogólnego przeznaczenia (GPAI). Najbardziej znane typy sieci neuronowych to obecnie ChatGPT, Gemini, Midjourney, DALL-E, czyli te systemy, które mogą wykonywać zadania takie jak generowanie tekstów, obrazów czy dźwięków. W przyszłości systemy GPAI muszą spełniać wymogi dotyczące przejrzystości.Przepisy regulują również bardziej zaawansowane systemy GPAI z dużymi modelami językowymi oraz danymi treningowymi, które mogą powodować ryzyko systemowe. Do najbardziej znanych należą OpenAI (GPT-3, GPT-4), DeepMind (AlphaGo, AlphaFold) i IBM (IBM Watson), a na nich będą nakładane dodatkowe obowiązki.## Poziomy zagrożeniaWykwalifikowany prawnik wyjaśnił, że rozporządzenie klasyfikuje systemy AI na trzy kategorie w zależności od potencjalnego ryzyka: niskie, wysokie i zakazane.Dozwolone systemy AI podlegają ogólnym wymaganiom dotyczącym przejrzystości, takim jak dokumentacja techniczna, zgodność z prawami autorskimi i ujawnienie danych zbiorczych wykorzystywanych podczas treningu. Dla systemów o wysokim wpływie i systemów generujących zagrożenie zakazane nałożono dodatkowe obowiązki i zakazy.Systemy AI wysokiego ryzyka muszą spełniać rozbudowane obowiązki, takie jak ustanowienie systemu zarządzania ryzykiem, przygotowanie i aktualizacja dokumentacji technicznej, przestrzeganie wymogów przejrzystości i zapewnienie nadzoru ludzkiego. Przykładami systemów wysokiego ryzyka są te używane w krytycznej infrastrukturze, urządzeniach medycznych, służbach porządkowych i wymiarze sprawiedliwości.UE doszła do konsensusu, że systemy sztucznej inteligencji zagrażające podstawowym prawom człowieka będą klasyfikowane jako systemy z zakazanym ryzykiem, a ich rozwój i użytkowanie będą zakazane na terenie UE.Systemy zakazane obejmują na przykład systemy biometryczne i bazy danych rozpoznawania twarzy wykorzystujące wrażliwe informacje. Na przykład, rozpoznawanie emocji w miejscu pracy i w placówkach edukacyjnych jest zakazane, podobnie jak systemy manipulujące nieświadomym zachowaniem ludzi i eksploatujące ich wrażliwości.## Bądź na bieżącoRozporządzenie w sprawie sztucznej inteligencji oczekuje teraz na dalsze wyjaśnienia i zatwierdzenie przez ustawodawców UE. Estonia opracowuje swoją strategię sztucznej inteligencji na podstawie regulacji UE, która wyznacza kierunki i tworzy standardy, a także patrzy bardziej systematycznie na sposoby zapewnienia niezawodności AI i minimalizacji ryzyka w rozwoju i użytkowaniu AI.Regulacja AI zostanie zatwierdzona na poziomie Komisji w nadchodzących tygodniach. Następnie głosowanie w plenum Parlamentu Europejskiego, które według oczekiwań odbędzie się w kwietniu, zostanie mu poddane.
Nasze kompleksowe, szyfrowane rozwiązanie do poczty e-mail i przechowywania danych w chmurze zapewnia najpotężniejsze środki bezpiecznej wymiany danych, zapewniając bezpieczeństwo i prywatność danych.