Znaczna część osób wierzy AI. I to pomimo tego, jak często się myli

Chatboty i sztuczna inteligencja za nimi stojąca są coraz bardziej rozbudowane. Jednak najnowsze badania pokazują, że bardzo często nadal się one mylą jeśli chodzi o przekazywanie najnowszych informacji. Co gorsze, znaczna część osób - wierzy podsumowaniom AI prędzej niż portalom informacyjnym.

Jakub Krawczyński (KubaKraw)
2
Udostępnij na fb
Udostępnij na X
Znaczna część osób wierzy AI. I to pomimo tego, jak często się myli

Dalsza część tekstu pod wideo

Chatboty AI a zaufanie do wiadomości

BBC wraz z kilkoma innymi portalami informacyjnymi prześwietlił temat zaufania ludzi do podawania wiadomości przez chatboty AI. Jak się okazało, chatboty w aż 45 procentach sytuacji, kiedy opisują najnowsze wydarzenia na podstawie artykułów - podają błędy.

OpenAI, Google i Microsoft zachęcają użytkowników do wykorzystywania chatbotów i asystentów, którzy podsumowują wiadomości lub zapewniają automatyczne analizy. Jednak dowody wskazują na to, że jeszcze czeka ich długa droga zanim wyeliminują halucynacje, o ile w ogóle jest to możliwe.

Najczęstszymi problemami były błędnie przytoczone zdania, przekręcone cytaty, przestarzałe informacje, ale przede wszystkim największą przeszkodą było podawanie źródeł. Najczęściej dochodziło do sytuacji, kiedy podane przez chatboty linki wcale nie pokrywały się z informacjami, które cytowały. A nawet jeśli ta sztuka się udawała, to chatboty nie potrafiły odróżnić faktu od opinii ani satyry od regularnych wiadomości.

W niektórych tematach, chatboty bardzo wolno aktualizowały swoją bazę wiedzy o postaciach politycznych i publicznych. Dochodziło do sytuacji, kiedy np. Copilot podawał prawidłową datę śmierci papieża Franciszka, ale nadal uznawał go za obecnego papieża.

Wcześniej OpenAI tłumaczyło te błędy brakiem dostępu wcześniejszych wersji do aktualnych informacji z internetu i wytrenowaniem na treściach z maksymalnie września 2021 roku. Jednak wraz z nowszymi modelami ChatGPT, nadal te błędy się zdarzają, a więc prawdopodobnie przyczyna błędu leży w algorytmach i nie można jej tak łatwo naprawić.

Pomimo tego, spora część osób ufa odpowiedziom wygenerowanym przez AI, ponad 1/3 osób dorosłych z Wielkiej Brytanii i niemal połowa dorosłych poniżej 35 roku życia stosuje AI do podsumowania artykułów i uważa, że otrzymuje trafne informacje. Jeśli z kolei zdarzy się tak, że AI przeinaczy treść artykułu, w 42 procentach przypadków dorośli widzieli winę zarówno w AI, jak i w oryginalnym artykule albo stracili zaufanie do danego medium. Tego typu trend jest niebezpieczny, bo może doprowadzić do tego, że reputacja mediów spadnie pomimo, że to sztuczna inteligencja zniekształca podane tam informacje.