AI

Etyka AI – z jakimi problemami etycznymi wiąże się korzystanie ze sztucznej inteligencji?

3 min czytania
Etyka AI – z jakimi problemami etycznymi wiąże się korzystanie ze sztucznej inteligencji?

ChatGPT, Midjourney, DeepSeek, Gemini – lista narzędzi opartych na AI jest długa… i będzie się tylko wydłużać. Niewiele krótsza od niej byłaby jednak lista problemów etycznych, które wiążą się z rozwojem sztucznej inteligencji. Co martwi (lub powinno zacząć martwić) inżynierów, naukowców i instytucje rządowe? O tym w dzisiejszym wpisie – zapraszamy do lektury.

Prywatność i dostęp do danych, czyli AI w szarej strefie

Wszystkie postaci generatywnej AI – od ChataGPT po DALL-E – rozwijają się w dokładnie ten sam sposób: analizując ogromne zbiory danych, które w praktyce są po prostu wytworami pracy człowieka. AI uczy się pisać artykuły na tekstach, które ktoś wcześniej musiał opublikować; generuje grafiki na podstawie obrazów największych malarzy, ale i zwykłych zdjęć wrzucanych do sieci. 

Czy twórcy modeli generatywnych mają prawo do tego, aby wykorzystywać te dzieła do trenowania swoich narzędzi? W wielu przypadkach okazuje się, że niekoniecznie. I to jest pierwszy dylemat; największe modele często szkoli się na treściach, które stanowią cudzą własność intelektualną… i dzieje się to bez zgody ich autorów

Kto jest właścicielem treści tworzonych przez AI?

Twórcy modeli AI nie są właścicielami danych wejściowych… ale nie mają też praw do obrazów, które generują algorytmy. To rodzi kolejne pytanie – czy content tworzony przez AI podlega ochronie i kto, w zasadzie, może rościć sobie do niego prawa autorskie.

Zobacz  Co to jest DataRobot?

Większość systemów prawnych uznaje za twórcę tylko i wyłącznie człowieka. Treści generowane przez AI nie są „utworami” – bo aby je za takowe uznać, człowiek musiałby mieć bezpośredni wkład w proces twórczy. A użytkownik, który wpisuje prompt do chatbota ma wkład jedynie pośredni, bo to algorytm ostatecznie decyduje o tym, jak będzie wyglądał tekst lub obraz. 

Oficjalnie treści generowane przez AI nie są chronione prawami autorskimi i… automatycznie trafiają do domeny publicznej. Krótko mówiąc, korzystać może z nich każdy, bez ograniczeń. Oczywiście, wygląda to zupełnie inaczej, gdy np. wygenerowany artykuł zostanie później przerobiony (i zoptymalizowany pod SEO) przez człowieka – taki tekst już podlega ochronie prawnej.

Algorytmy też mają uprzedzenia

Etyka w AI zajmuje się nie tylko kwestią praw autorskich. Innym problemem jest fakt, że sztuczna inteligencja jest tylko tak rzetelna, jak rzetelne są jej dane wejściowe. To oznacza, że jest tak samo narażona na uprzedzenia, jak człowiek

Dwa lata temu Anna M. Górska i Dariusz Jemielniak z Akademii Leona Koźmińskiego przeprowadzili ciekawe badanie dotyczące tego, jak AI „widzi” osoby pracujące m.in. w medycynie, prawie oraz na uczelniach. Prawie 80% reprezentacji lekarzy czy profesorów uniwersyteckich stanowili… wyłącznie mężczyźni. 

To tylko jedno badanie, ale sytuacji, w których AI podejmowała ważne decyzje – na przykład oceniała kandydatów do pracy – kierując się uprzedzeniami płciowymi albo rasowymi już było sporo; duże problemy miał z tym m.in. Amazon

Zobacz  Wykorzystaj Google Sheets do scrapowania danych internetowych z wykorzystaniem AI

Przy okazji, warto zadać sobie pytanie, w jaki sposób – tak naprawdę – AI ocenia dane. Prawda jest taka, że nikt do końca tego nie wie. Największe modele, zwłaszcza te oparte na sieciach neuronowych, są tzw. czarnymi skrzynkami. To znaczy: znamy dane wejściowe, znamy wynik, ale nie mamy pojęcia, jakie procesy zachodzą „w środku”. Nie wiemy więc, na przykład, na jakiej konkretnie podstawie algorytm ocenia CV kandydatów albo jak diagnozuje choroby nowotworowe.

AI a środowisko

Na koniec jeszcze jeden problem, który zasługuje na większą uwagę. Mianowicie, modele AI wymagają bardzo dużej mocy obliczeniowej, co wiąże się z ogromnym zużyciem energii i wysoką emisją CO₂.

Według najnowszych wyliczeń sam ChatGPT każdego dnia zużywa 39,98 milionów kilowatogodzin – to tyle, ile potrzeba, aby naładować 8 milionów smartfonów. Równie duże wrażenie może zrobić użycie wody do chłodzenia serwerów, na których pracuje algorytm – mówimy tu o prawie 150 milionach litrów… również dziennie (źródło: businessenergyuk.com/knowledge-hub/chatgpt-energy-consumption-visualized/).

Twórcy kolejnych modeli starają się szukać bardziej energooszczędnych rozwiązań – dobrze to pokazuje przykład DeepSeeka, którego twórcy bardzo chętnie chwalą się o kilkadziesiąt procent niższym śladem węglowym w porównaniu do modelu Open AI. Nie zmienia to faktu, że sztuczna inteligencja wciąż jest ogromnym wyzwaniem dla środowiska, z którym musimy sobie jeszcze poradzić.

Zawodowy copywriter oraz student psychologii na Uniwersytecie Warszawskim. W świecie marketingu internetowego równie mocno, co chwytliwe (i wartościowe) treści interesuje go dobry design. Gdy nie zajmuje się tworzeniem contentu, odkrywa perełki kina niezależnego i pracuje nad własnymi opowiadaniami.

Udostępnij

Oceń tekst

Średnia ocen 5 / 5. Liczba głosów: 1

Brak głosów - oceń jako pierwszy!

Zapytaj o ofertę SEO
Dołącz do newslettera
Powiązane artykuły Najnowsze Popularne

Zbuduj Twój potencjał SEO

Skonsultuj z nami Twoją sytuację w wyszukiwarce. Porozmawiajmy o Twoich celach i możliwościach współpracy