Narzędzie, które “nakarmiono” tymi obrazami jest znane pod nazwą LAION-5B. O tym, że zdjęcia Lapine zostały użyte do tego celu kobieta dowiedziała się za sprawą strony Have I Been Trained, która pozwala sprawdzić, czy dany obraz był użyty do trenowania różnego rodzaju algorytmów. Kiedy poszkodowana przeprowadziła odwrócone wyszukiwanie wizerunku swojej twarzy, ku jej zaskoczeniu zobaczyła dwa swoje zdjęcia medyczne.
Czytaj też: Robot został CEO. W tej firmie najwyższe stanowisko przypadło sztucznej inteligencji
W 2013 roku lekarz sfotografował moją twarz w ramach dokumentacji klinicznej. Zmarł w 2018 roku i w jakiś sposób ten obraz znalazł się w sieci, a następnie trafił do zbioru danych – obraz, który w ramach formularzu przekazałam na rzecz mojego lekarza – nie dla zbioru danych.opisuje Lapine na Twitterze
Sztuczna inteligencja szkolona z wykorzystaniem tych prywatnych zdjęć to LAION-5B
Jako że z założenia LAION-5B ma wykorzystywać wyłączenie publicznie dostępne obrazy, to coś w całej sprawie się nie zgadza. W jakiś sposób zdjęcia, których w sieci być nie powinno, trafiły z akt lekarza do internetu, a stamtąd do zbioru wykorzystywanego przez LAION-5B. Co gorsza, wygląda na to, że to nie jedyny taki przypadek, a dokumentacja medyczna – i to bez świadomości pacjentów – jest częstym środkiem stosowanym do trenowania sztucznej inteligencji.
Czytaj też: Tytan z drukarki 3D wciąż nie taki, jakiego byśmy oczekiwali. Na horyzoncie pojawiła się nowa metoda
Z drugiej strony przedstawiciel LAION wyjaśnia, że baza danych wykorzystywana przez to narzędzie nie jest własnością firmy, dlatego w celu usunięcia tego typu materiałów trzeba kontaktować się z serwisami hostingującymi. To z kolei sprawia, iż jeszcze trudniej jest pociągnąć kogoś do odpowiedzialności. Czy na pewno w takim kierunku powinna podążać sztuczna inteligencja i związane z nią narzędzia?