Експеримент демонстрира механизма за образуване на „информационни балони“.
Съвременните изследвания показват обезпокоителна тенденция: търсачките, които използваме днес, фино оформят нашия мироглед, засилвайки съществуващите ни убеждения. Научен експеримент, публикуван в
PNAS, в който са участвали около 10 000 души, разкрива механизма за образуването на така наречените „информационни балони“. Оказва се, че дори привидно неутралните заявки за търсене в Google или ChatGPT могат значително да стеснят обхвата на получената информация.
Проблемът започва с факта, че човек, без да осъзнава, формулира търсенията, които отразяват настоящите му убеждения. Например, поддръжник на ядрената енергия вероятно би написал в търсачката „ползите от атомните електроцентрали“, докато опонент би написал „опасностите от ядрените отпадъци“. Алгоритмите на търсачките, в стремежа си да предоставят най-подходящите резултати, подсилват това предубеждение, като предлагат информация, която потвърждава първоначалните убеждения на потребителя. В резултат на това се образува порочен кръг: човек получава високоспециализирани данни, допълнително засилващи мнението му, дори ако то първоначално е било предубедено.
Този механизъм представлява особена опасност в условията на съвременното информационно общество. Постепенно се формира ефектът на „невидима цензура“, когато хора с различни възгледи съществуват в паралелни информационни реалности. Това води до засилена социална поляризация и опростяване на сложни проблеми в черно-бели схеми.
Въпреки това, изследователите предлагат конкретни решения на този проблем. На технологично ниво е възможно да се внедри функция за „разширено търсене“, която ще предлага алтернативни гледни точки. Модифицирането на алгоритмите на изкуствения интелект може да помогне за предоставянето на по-балансирани отговори. Интересното е, че участниците в експериментите оценяват разширените резултати от търсенето положително, считайки ги за по-обективни.