Internet wypełniony jest masą niechcianych i mało wartościowych treści – widoczne jest to zwłaszcza w mediach społecznościowych. 

W ostatnim czasie produkcja i publikacja tego typu treści staje się coraz bardziej widoczna za sprawą sztucznej inteligencji. Dzięki AI ich generowanie stało się niezwykle proste, więc posty w mediach społecznościowych wykorzystujące np. ilustracje wygenerowane przez sztuczną inteligencję stają się niezwykle popularne. Internauci, początkowo zachwyceni możliwościami sztucznej inteligencji, bardzo szybko poczuli zmęczenie tego typu zjawiskiem i ukuli nawet termin, które je opisuje.

„Slop” to nowy spam. Na czym polega to zjawisko?

Słowo „slop” odnosi się do tworzenia dużej liczby obrazów i filmów, ale także tekstów i komentarzy wykreowanych przez sztuczną inteligencję w celu symulowania istnienia treści na stronach internetowych i w serwisach społecznościowych. Treści te generowane są między innymi w celu zdobywania przychodów z reklam i przekierowywania ruchu z wyszukiwarek.

Czytaj więcej

XVI-wieczny zabytek z Polski wyróżniony. Pokonał rywali z całego świata

Podobnie jak w przypadku dobrze znanego spamu, efekt śmieciowych treści nazywanych „slopem” także jest negatywny – internauci marnują bowiem swój czas i wysiłek, starając się znaleźć wiarygodne i wartościowe informacje wśród tych, które wartości żadnej nie mają, a do tego nierzadko wprowadzają w błąd.

Problem, który wiąże się z tym zjawiskiem sprawia niemałe kłopoty z poruszaniem się po sieci – dezorientuje jego użytkowników, którzy mają trudności z odróżnieniem prawdziwych treści od tych generowanych przez AI. 

Skąd wzięło się pojęcie „slop”? Słowo to na język polski przetłumaczyć można jako „pomyje” bądź „papka”. W języku angielskim nawiązuje ono jednak także do nazwy zmielonej paszy, którą karmione są zwierzęta gospodarskie. Podobnie jak ten niskiej jakości pokarm, „slop” jest zlepkiem informacji wyprodukowanych przez maszyny i praktycznie pozbawionych wartości.

Przykład „slopu”, który wzbudził wielkie zainteresowanie w mediach społecznościowych: wyobrażone przez AI wnętrza nieistniejących starożytnych term w Rzymie.  

Termin ten zyskał dużą popularność w ostatnich tygodniach – Google zintegrował wówczas swój model sztucznej inteligencji Gemini z wynikami wyszukiwania oferowanymi na terenie Stanów Zjednoczonych. Google AI Overviews – bo tak nazywa się projekt – zakłada, że sztuczna inteligencja w wyszukiwarce podsuwa wyniki wyszukiwania tak, by szukający od razu otrzymywał odpowiedź na swoje pytanie – bez konieczności przeglądania kolejnych wyników. 

Problemy związane z AI Overviews pojawiły się niemal natychmiast – w pewnym momencie po sieci zaczęły krążyć memy pokazujące dziwaczne reakcje AI. Sztuczna inteligencja internautom podpowiadała między innymi, że Barack Obama jest muzułmaninem, słynny wokalista Drake graczem National Football League, a także, że psy mogą być właścicielami hoteli i pilotować samoloty

Krótko mówiąc, okazało się to, co wielu ekspertów podkreślało już od jakiegoś czasu – że choć sztuczna inteligencja faktycznie jest inteligentna, to wciąż nie jest w stanie rozróżnić prawdziwych informacji i kontekstu, a także rzeczy prawdopodobnych od tych, które nie są po prostu możliwe. 

Czytaj więcej

Bunt generacji Z: ma dość chaosu na świecie. Nadchodzi epoka „nowych nihilistów”

„Slop”: śmieciowe treści tworzone przez AI zalewają sieć

W rozmowie z „The New York Times” Kristian Hammond – dyrektor Center for Advancing Safety of Machine Intelligence na Northwestern University – zauważył, że jednym z głównym problemów jest to, iż sztuczna inteligencja nierzadko przedstawia nam informacje jako ostateczną odpowiedź, a nie podpowiedź. A to zwiększa ryzyko dezinformacji. „To do użytkownika, który zadał pytanie, należy sprawdzenie, czy informacje i źródła dostarczone przez sztuczną inteligencję są prawdziwe” – podkreślił. 

Zdaniem ekspertów, w związku z rozwojem sztucznej inteligencji, „slop” już wkrótce może stać się równie popularny co „spam” – doskonale nam znane zjawisko, mające mniej więcej takie samo pochodzenie. 

Ze względu na wzrost popularności treści, które można nazwać „slopem” oraz to, że mogą one przekształcić Internet i media społecznościowe w przestrzeń wypełnioną botami i nieskończoną liczbą treści – nierzadko fałszywych – generowanych przez sztuczną inteligencję, coraz więcej firm stara się rozprawić z problemem.

Giganci tacy jak Google, Meta i Microsoft, zaczynają szkolić swoje systemy pod kątem rozpoznawania treści generowanych przez AI – planują między innymi wdrożyć złożone algorytmy i systemy, które będą wyszukiwać oraz filtrować treści należące do „slopu”. Wydaje się jednak, że jesteśmy narazie na samym początku tej drogi.