Coraz więcej się mówi o fałszywych wiadomościach, bańkach filtrujących i ogólnej postprawdzie. Pojawiają się kolejne pomysły jak przeciwdziałać takim wiadomościom. Jak przekonać ludzi do korzystania z wiarygodnych źródeł informacji i szukania skąd wzięły się sensacyjne wiadomości.
Jednak powoli zbliża się znacznie większy problem wynikający z rozwoju technologii: co, jeśli fałszywki staną się praktycznie nieodróżnialne od prawdziwych źródeł?
Na przełomie 2017 i 2018 do obiegu publicznego trafiły programy pozwalające tworzyć tkz. deepfake - obrazy lub filmiki z wklejonymi (dokładnie, to zwykle korzysta się z tego określenia w kontekście wykorzystania do zrobienia czegoś takiego uczenia maszynowego, a nie po prostu wklejania :) twarzami innych osób.
To było 1,5 roku temu, a już wtedy wyglądało to nieźle. A z czasem staje się coraz lepsze. Powiedziałbym, że to tylko kwestia kilku lat zanim będzie trudno rozróżnić fałszywy filmik od prawdziwego.
Ale to tylko wideo i zdjęcia, nie? Przecież nie da się tak przekonać ludzi, że np. jakiś polityk powiedział coś głupiego, nie?
fakejoerogan.com/
To przykład systemu RealTalk stworzonego przez firmę Dessa. (tu jest trochę dłuższe demo, bez gry w zgadywanie).
Jeszcze jedna szansa dla prawdy: możemy przecież robić to w drugą stronę i wykorzystać uczenie maszynowe do wykrywania czegoś takiego, nie?
Niestety, ale jest to wojna skazana na porażkę z prostego powodu: zwykle do tworzenia takich treści wykorzystuje się sieci neuronowe należące do klasy GAN - Generative Adversarial Network. I to drugie słowo jest tu kluczowe.
Każdy sposób wykrywania tego, czy coś zostało wykryte przez taką sieć neuronową może zostać wykorzystany do uczenia jej, bowiem to jest właśnie całą idea GAN'ów. Stworzenie sieci neuronowej która ma sprawdzać, czy coś jest prawdziwe, czy wygenerowane i trenowanie aż będzie miało wystarczającą dokładność (nazywanej dyskryminatorem). A później wystawienie przeciw niej generatora. Celem generatora jest tworzenie treści tak, by zmniejszyć dokładność dyskryminatora. Im lepszy dyskryminator, tym lepszy będzie końcowy produkt (co prawda kosztem czasu, ale ludzie mogą być gotowi spędzić kilkadziesiąt godzin na generowaniu wystarczająco dobrego modelu...). Tworząc detektory w zasadzie tworzymy lepsze dyskryminatory, a więc w konsekwencji tworzymy lepsze generatory.
Podsumowując więc to: bardzo prawdopodobne jest, że za kilka do kilkunastu lat nie będziemy mogli już w ogóle ufać nagraniom, zdjęciom, filmikom. Nie będzie potrzeba ogromnego budżetu by sfabrykować filmowe dowody na to, że np. nielubiany polityk uprawiał pedofilski seks.
I teraz może o czym tak naprawdę chce tu dyskutować: jaki waszym zdaniem będzie wpływ tego na społeczeństwo?
Bo tym, co wydaje mi się najgorszym elementem tego wszystkiego to nie to, że ktoś może dać fałszywy filmik by dyskredytować innych. To to, że gdy wyjdzie na jaw jakieś prawdziwe nagranie, które powinno wywołać jakąś reakcję, to nagrany i jego obrońcy mogą po prostu powiedzieć, że jest fałszywe.
Ludzie jeszcze bardziej zamkną się w swoich bańkach poglądów, bo zyskają prosty argument by zbić dowody które dzisiaj mogły by ich przekonać do ich zmiany: to fałszywka. Cokolwiek, co nie pasuje do twoich poglądów nagle może być fałszywe, a cokolwiek co do nich pasuje to oczywiście prawda objawiona której druga strona nie chce przyznać.
Moim zdaniem powinniśmy zachować sobie termin postprawdy. Bo ta epoka jest dopiero przed nami. Na razie bowiem mówi się tu tylko o debacie w której emocje są ważniejsze od prawdy, jednak w tym równaniu wciąż jest element prawdy. A niedługo nawet tej odrobiny faktów nam zabraknie.