Majówkowy długi weekend w niemal każdym polskim domu zdominowała rozmowa o wejściu na rynek sztucznej inteligencji czyli związanego z Microsoftem ChatGPT. Kto jeszcze nie zadał jej choćby jednego spośród trzech możliwych w darmowej opcji pytań, ten z pewnością wkrótce to zrobi. A ciekawość ta podszyta jest zarówno fascynacją, jak i obawą.
Jak nietrudno się domyślić i w tym przypadku głosy są podzielone. Fascynaci zachwalają rozległą wiedzę maszyny, składnię, umiejętność poprawnego formułowania zdań złożonych, a także umiejętności szukania w sieci wiedzy symultanicznie tłumaczonej na potrzeby odpowiedzi na zadane pytanie. W najlepszym przypadku wieszczą, że z tronu spadną programiści, których AI mogłaby potencjalnie zastąpić.
Nie brakuje także głosów krytycznych, do których należy Geoffrey Hinton, który na dniach odszedł z Google, dla którego pracował przez 10 lat, tworząc sztuczną inteligencję. W wywiadzie udzielonym „New York Times”, kanadyjski naukowiec przestrzega przed skutkami udostępnienia tej technologii wszystkim użytkownikom, co z pozoru może wydawać się rozwiązaniem dość egalitarnym.
Działanie sztucznej inteligencji nie jest znane przeciętnym użytkownikom, jednak wiadomo, że wie ona więcej niż przeciętny średnio wykształcony obywatel jakiegokolwiek kraju, także krajów wysokorozwiniętych. Problemem staje się także systemowy brak edukacji krytycznej percepcji zarówno tekstów jak i aspektów wizualnych otaczającego nas świata. Potencjalnie mniejszy problem mogłyby z tym mieć pokolenia pamietające czasy propagandy niż pokolenie, które wyrosło już w czasach galopującej cyfryzacji – tylko czy na pewno? Jeśli przyjęliśmy sądzić, że narzędzie to przynależy do wolnego zachodniego świata, to przecież propagandą nie może być naznaczone. Jak odróżnić prawdę, jeśli w ogóle taką kategorią można jeszcze będzie się posługiwać, jeśli AI trafi w ręce osób chcących wykorzystać ją do politycznych celów. Problem dezinformacji może okazać się kluczowy w dobie zmieniającego się świata. Obawy dotyczące funkcjonowania w świecie sztucznej inteligencji nawet w środowisku pracowników Google istnieją, CEO Google Sundar Pichai miał przyznać, że należałoby wdrożyć globalne regulacje zbliżone do tych, które obowiązują w przypadku posiadania broni jądrowej. Czy jest to prawda przewrotnie przyznam, że trudno stwierdzić, bo wszystkie informacje umieszczane na blogu mają swoje źródło w internecie.