Technologia zdemokratyzowała się jak nigdy wcześniej. Sztuczna inteligencja jest powszechnie dostępna, więc jej odpowiedzialne stosowanie staje się kluczową kwestią. Ponieważ już w tej chwili zaczyna ona wpływać na wszystko, co dotyczy naszego życia, musimy zadbać o to, żeby jej rozwój i wykorzystanie odbywały się w sposób zgodny z naszymi wartościami oraz z poszanowaniem praw i godności ludzi.
Jednym z z największych wyzwań związanych z odpowiedzialną sztuczną inteligencją jest potencjalna stronniczość danych wykorzystywanych do szkolenia jej systemów. Modele AI są tak dobre jak dane, na których są szkolone. Jeśli dane są stronnicze, sztuczna inteligencja będzie to odzwierciedlać i utrwalać. To może mieć poważne konsekwencje szczególnie w takich obszarach jak zatrudnianie, udzielanie pożyczek czy na przykład w kwestiach dotyczących wymiaru sprawiedliwości w sprawach karnych lub wyborach parlamentarnych. Rok 2024 jest rekordowy ze względu na liczbę wyborów, które odbędą się w ponad 65 krajach między początkiem marca a końcem roku. Gwałtowny rozwój sztucznej inteligencji oferuje niezwykłe korzyści, ale także umożliwia „złym aktorom” oszukiwanie wyborców poprzez tworzenie realistycznych „deepfake’ów” kandydatów i innych osób publicznych.
W lutym tego roku sektor technologiczny spotkał się na Monachijskiej Konferencji Bezpieczeństwa, aby wykonać ważny krok naprzód. Dwadzieścia firm ogłosiło nowe porozumienie technologiczne w sprawie zwalczania oszukańczego wykorzystania sztucznej inteligencji w wyborach w 2024 roku. Jego cel jest prosty, ale niezwykle istotny – zwalczanie wideo, audio i obrazów, które fałszują lub zmieniają wygląd, głos lub działania kandydatów politycznych, urzędników wyborczych i innych kluczowych interesariuszy.