Изменить прошлое: технологии переписать память в действии
Опубликованно 03.11.2019 01:26
Чем больше лжи в новостях, тем легче ложные воспоминания. Не все, но многие, как обнаружила группа европейских исследователей. Когда новости о событиях вылетело несколько поддельные детали, половины участников не только "помнить", но и украшали свои собственные произведения: "да, я это видел".
Ложные воспоминания
Ложные воспоминания-это диагноз. Назвать псевдоамнезией. До эпидемии еще далеко, но многие интернет-источники она ближе! В том числе "образовательных" сайтов. Как один интеллектуал, "я регулярно читаю изречения известных людей, знаменитостей и во сне не могло присниться". Тем не менее, они уже отложились в памяти многих без проверки на подлинность цитаты. И как проверить? Не в библиотеке сидеть. И тогда человек говорит компании: "помнишь такого-то философа читала, что...". И ему самому кажется, что он действительно читал философскую литературу. Еще сложнее – как документальных фотографий. Как возразить на то, что вы видите своими глазами, и это сопровождается комментарием свидетель происшествия?
© РИА Новости / Кирилл Kallinikovфейковых новостей
© РИА Новости / Кирилл Kallinikov
Фальшивые новости
Ложные воспоминания о первом склонен тот, кто не способен критически оценивать информацию. Или считает, что он "годен" – отвечает его убеждениям, вкусам или настроению в данный момент. Но не только это. Психика имеет особенности, которые могут сыграть с человеком злую шутку. В этом фейковых новостей работать как предохранитель.
Не надо паниковать!
Главной особенностью памяти является ее избирательность. Каждый человек хоть раз в жизни испытывал что-то вроде: "помнишь, как на Новый год... не помню". Пять членов партии "вами" пять возможных вариантов. Даже "хуже" память-это эмоциональное, на уровне физических ощущений. Если сложить первое и второе, то, как считает врач-психотерапевт Александр Федорович, поглощение фейковых новостей грозит не только прославить себя, он может сделать человек "теряет импульс". '
"Подделка-это всегда, если не эмоционально, то, конечно, эмоционально вовлекая новости. И излишне эмоциональные люди формируют о ней память как гормональный опыт, просто потому, что его эндокринная система реагирует на острое. В этом случае подделки действительно могут засорить и саму память, и эмоции, и вызвать серьезное заболевание. Человек начинается так называемый тревожный развития. Апогей этого процесса – состояние паники. Паника-это мощное физическое ощущение, которое несет в себе очень яркие ассоциации и опыт щас тока собственной смерти".
© Depositphotos В / Vectorfusionartфейк это, в первую очередь, эмоции
© Depositphotos В / Vectorfusionart
Фейк это, в первую очередь, эмоции
Постарайся успокоиться и проверить новости на фальшивую информацию – хороший совет, но это сложнее. Искусственный интеллект делает предложение, от которого трудно отказаться.
Глубокий фейк
Многие уже поиграли с ЗАО приложение DeepFake, что позволяет практически мгновенно заменить одно лицо на другое в любом видео. Веселее просто взять Selfie и после 10 секунд обработки фрагмент из любимого фильма, чтобы появиться в кадре вместо кинозвезд. DeepFake программа использует технологии искусственного интеллекта, он может с нуля и под ключ, чтобы создать реалистичные "ничего": видео, фото, аудио файлы. Нейронные сети-это великая вещь. Они говорят, что они один или два предложил фото создать отличие от оригинала движущийся объект, даже говорить своим собственным голосом. Хотите опорочить человека – воспроизвести его, Хотя в видео DeepFake голый: нейронные сети способны автоматически раздеваться. DeepFake – новая, и гораздо более несовершенна. Например, моделирование голоса "один в один" не получится, но это лишь вопрос времени.
© Depositphotos В / sdecoretнейронной сети
© Depositphotos В / sdecoret
Нейронной сети
Искусственный интеллект открывает фейковых новостей большие перспективы. По словам сотрудника компании "Neurobotics" Александра Зонова, защита от "поддельных глубокое" я полагаю теперь, пока программа используется только для игр или ролевых чатах.
'
"В то время как это весело, но в будущем это повлечет за собой опасность, потому что мы устанавливаем любые изображения и производить какие-либо махинации. Это может быть известный человек, политик, президент страны, которая находится в видео-вдруг, например, важное заявление. Программа обещает серьезные проблемы в ближайшие годы, как только он наберет нужную скорость, кто теперь хочет использовать ее в корыстных целях, будет делать это. В качестве защиты, создать специальные фильтры, которые будут выполняться любая визуальная информация, чтобы признать, нейронная сеть или нет, то есть, искусственный интеллект или видео на реального человека. Невооруженным глазом отличить реального человека от программы будет уже невозможно".
© Инфографикаинтерфейс: как законектится с искусственным интеллектом
© Инфографика
Интерфейс: как законектится с искусственным интеллектом
Те, кто доставит фейковых новостей или компьютерных программ для их производства, вряд ли откажутся. И не только в деньгах. Как выяснили ученые (это показало сканирование мозга), человек испытывает удовольствие от получения какой-либо информации о ее "прибытии" реагирует на так называемую систему наград. Поэтому новость должна быть максимально большой. Разнообразие. Особенно удивительно.
Автор Ольга Бугрова, радио Спутник
Чтобы не пропустить все самое интересное, следите за нами Facebook. И не забывайте про Instagram.
Категория: Гаджеты