Sztuczna inteligencja (artificial intelligence, AI) na dobre wkroczyła do naszego codziennego życia. Z narzędzi opartych na generatywnej AI coraz chętniej korzystają zarówno dorośli, jak i młodzież. Tłumaczenia oparte na AI pozwalają nam szybko przełożyć nawet długie teksty na języki obce. Chatboty odpowiadają na nasze pytania, piszą za nas maile, wypracowania, przygotowują scenariusze lekcji, sprawdziany, a nawet rozwiązują trudne zadanie matematyczne. Z kolei aplikacje generatywne tworzą na nasze komendy obrazy, muzykę, a nawet filmy.

Sztuczna inteligencja rozwija się w zawrotnym tempie, niemal w każdym miesiącu pojawiają się kolejne narzędzia dające nam nowe możliwości. Dzięki nim możemy nie tylko ułatwiać sobie pracę i naukę oraz zaoszczędzić czas, ale także rozwijać kreatywność i innowacyjność. Z drugiej strony coraz większa autonomia technologii opartych na AI rodzi wątpliwości i pytania. Na ile powinniśmy ufać sztucznej inteligencji? Jaka jest nasza odpowiedzialność podczas korzystania z narzędzi AI? W jaki sposób wykorzystywać je mądrze i etycznie? O tych wątpliwościach warto rozmawiać również z dziećmi i młodzieżą.

Czy sztuczna inteligencja jest inteligentna?

Termin „sztuczna inteligencja” może wprowadzać nas w błąd. Systemy AI są często antropomorfizowane, tymczasem jedynie naśladują ludzką inteligencję. Choć potrafią wykonywać skomplikowane zadania, „rozmawiać z nami”, a nawet podejmować decyzje, to nie mają własnej świadomości, intuicji ani umiejętności odczuwania, jak ludzie. „Inteligencja” technologii opiera się na danych, którymi jest zasilana, dzięki którym „się uczy”. To właśnie na podstawie ogromnych ilości zdobywanych i przetwarzanych danych systemy AI mogą prognozować, tworzyć nowe treści, rozpoznawać wzorce, wnioskować. Od ilości i jakości tych danych zależy skuteczność działania algorytmów oraz wiarygodność uzyskiwanych wyników.

Ryzyko błędów, uprzedzeń i halucynacji związane z AI

Skąd modele AI czerpią dane? Pochodzą one ze świata rzeczywistego, czyli zarówno z artykułów naukowych, raportów, wyników badań, tekstów dziennikarzy, jak i wpisów na blogach czy postów w mediach społecznościowych. Wśród przetwarzanych informacji mogą znaleźć się zatem zarówno wiarygodne i wartościowe, jak również takie, które są nieprawdziwe, nieprecyzyjne lub zawierają uprzedzenia płciowe, ideologiczne czy rasowe. Algorytmy sztucznej inteligencji mogą je powielać, np. faworyzując zdjęcia mężczyzn przy wyszukiwaniu hasła naukowiec, a kobiet przy haśle nauczyciel; osoby czarnoskórej dla hasła osoba sprzątająca, białej dla hasła lekarz. W rezultacie, nieświadome powielanie stereotypów przez AI może prowadzić do utrwalania błędnych przekonań i uprzedzeń w społeczeństwie. 

Innym zjawiskiem, z którego warto zdawać sobie sprawę, są tzw. halucynacje. Modele językowe takie jak Bing, Bard czy ChatGPT mogą tworzyć pozornie wiarygodne informacje, które w rzeczywistości są nieprawdziwe, a nawet całkowicie zmyślone. Halucynacje wynikają z ograniczeń w zakresie zrozumienia przez sztuczną inteligencję kontekstu oraz sposobu, w jaki jest programowana, by analizować dane.

Koncepcja etycznej AI

Ostatnio coraz więcej uwagi poświęca się również etyce sztucznej inteligencji. Eksperci z różnych dziedzin wspólnie definiują ramy, które pomogą zapewnić odpowiedzialny rozwój AI. Dane przetwarzane przez sztuczną inteligencję same w sobie nie są ani etyczne, ani nieetyczne, ale sposób ich wykorzystania przez ludzi może budzić wątpliwości. Dla przykładu, w debacie publicznej coraz częściej podnoszona jest kwestia praw autorskich i plagiatu. Kto jest właściwym autorem wytworów generowanych przez modele AI, które przecież opierają się na cudzych utworach? AI analizuje przecież miliony tekstów i obrazów, po czym łączy je zgodnie z poleceniami użytkownika (promptami).

Wątpliwości związane z prawami autorskimi ilustrują niedawne pozwy, np. złożone przez Getty Images przeciwko firmom Stable AI i Midjourney. Powództwo twierdzi, że obrazy wygenerowane przez aplikacje są jedynie pozornie nowe, a w rzeczywistości stanowią dzieła pochodne obrazów, na których AI było szkolone. Z kolei New York Times oskarża firmy Microsoft oraz OpenAI o bezprawne wykorzystywanie materiałów przygotowanych przez profesjonalnych dziennikarzy do tworzenia nowych tekstów bez zgody osób uprawnionych.

Wyzwania edukacyjne w kontekście AI

Można zaryzykować stwierdzenie, że najważniejszym wyzwaniem edukacyjnym staje się dziś nie tyle nauczenie młodzieży obsługiwania narzędzi AI, ile rozwijanie umiejętności krytycznego korzystania z nich. W obliczu możliwych błędów i halucynacji kluczowe jest, aby młodzież potrafiła oceniać wiarygodność oraz obiektywność informacji prezentowanych przez systemy AI. Zamiast traktować chatboty jako źródło wiedzy, warto zwrócić uwagę na ich potencjał w realizacji zadań generatywnych i kreatywnych.

Dlatego też, jako nauczycielki i nauczyciele, powinniśmy promować takie zadania, które zamiast zachęcać młodzież do bezrefleksyjnego kopiowania i przywłaszczania sobie treści wygenerowanych przez AI, będą wymagały samodzielnego myślenia i twórczego podejścia, formułowania własnych pytań oraz rozwiązywania problemów. Dla przykładu, możemy poprosić uczennice i uczniów o znalezienie z pomocą chatbotów informacji na dany temat, a następnie o ich sprawdzenie w innym źródle, wytropienie nieścisłości i błędów. Możemy również zasugerować uczennicom i uczniom, by spytali czatbota jak doszedł (krok po kroku) do rozwiązania danego zadania, przeanalizowania, co wziął pod uwagę.

Cenną umiejętnością, którą warto rozwijać, jest również promptowanie, czyli formułowanie poleceń lub pytań stawianych modelom generatywnej AI. Tworzenie precyzyjnych, dostosowanych do kontekstu promptów może być zadaniem samym w sobie. Tak samo jak ocena otrzymanych wyników, ich interpretacja. Jeśli poprosimy uczniów o krytyczne sprawdzenie „prac” AI, wskazanie błędów, braków czy luk w wygenerowanych tekstach, będą mogli sprawdzić skuteczność swoich promptów.

Warto też rozmawiać z młodzieżą o etycznym korzystaniu z AI, własności intelektualnej. Można robić to w kreatywny sposób, np. wspólnie tworząc obraz czy zdjęcie w stylu wybranego autora, a potem rozmawiając o tym, jakie elementy decydują o tym konkretnym stylu. Ciekawą opcją będą również debaty polegające na ocenie etyczności danego rozwiązania.

Przyszłość sztucznej inteligencji w dużej mierze zależy od podejścia jej użytkowników. Ich odpowiedzialność i świadomość są kluczowe dla kształtowania sposobu, w jaki będzie wykorzystywana AI. Etyczne ramy dla rozwoju sztucznej inteligencji stają się niezbędne, a kluczowym zadaniem jest obecnie nauka krytycznego podejścia do korzystania z tych narzędzi, zwłaszcza wśród młodego pokolenia. Edukacja w zakresie umiejętnego stosowania AI, rozpoznawania jego ograniczeń oraz świadomego podejmowania decyzji stanowi też fundament przyszłego rozwoju tej technologii i minimalizacji związanych z nią zagrożeń.

Autorka: Aleksandra Sulmicka