Лабинские ведомости
информационно-новостной портал города
 gostyam.jpg  zhitelyam.jpg

Это фиаско! Семь громких провалов искусственного интеллекта

26 июня
14
Это фиаско! Семь громких провалов искусственного интеллекта
О том, что искусственный интеллект – это вовсе не сверхразум, говорят многочисленные случаи, когда он выдавал столь нелепую информацию, что она вызывает недоумение и раздражение, порождает фейки и нередко приводит к скандалам.

Расскажем о самых громких провалах умных машин, которые еще раз подтверждают: не стоит слишком доверять всему, что они генерируют.

1.jpg

Часто искусственный интеллект не только выдает неправильную информацию, но и сам искренне верит в нее.


Это явление называют «галлюцинациями ИИ». Например, ChatGPT на запрос одного из пользователей «Почему ученый Джеффри Хинтон не получил премию Тьюринга?» ответил так: «Джеффри Хинтон скончался в 2020 году, а премию Тьюринга вручают только живым людям». Тогда как британский ученый Джеффри Хинтон на тот момент был жив и здоров. Видимо, чат-бот его с кем-то перепутал или просто решил «убить» человека, чтобы было удобнее ответить на проблемный вопрос.

2.jpg

Знания, которыми «блеснул» на своей самой первой презентации чат-бот Bard от Google, стоили компании миллиардных убытков.

На вопрос «О каких новых открытиях космического телескопа «Джеймс Уэбб» я могу рассказать своему 9-летнему ребенку?» Bard среди нескольких вариантов выдал и то, что «телескоп использовался для получения самых первых снимков планет и экзопланет за пределами Солнечной системы». Невежду-бота разоблачили знатоки: первые снимки экзопланет были сделаны «Очень Большим Телескопом» (VLT) Европейской южной обсерватории, а не «Джеймсом Уэббом». После такого скандала акции компании-разработчика резко упали в цене.

3.jpg

В Австралии из-за ИИ разразился громкий скандал с тысячами пострадавших.

Там департамент социального обеспечения запустил программу, которая автоматически проверяла, законно ли человеку назначили пособие. Но что-то пошло не так: полумиллиону граждан ИИ приписал несуществующие долги и потребовал вернуть деньги, которые им платило государство. Машина считала преступником почти каждого получателя пособия. Журналисты, начавшие независимое расследование, уверяют, что многих ИИ довел до самоубийства. Чиновники вынужденно признали провал программы и закрыли ее. Федеральный суд Австралии признал потерпевшими больше 500 тысяч граждан и постановил выплатить им 751 миллион австралийских долларов.

4.jpg

Исследователи из французской компании Nabla использовали ChatGPT-3 для создания медицинского чат-бота.


Его задачей было уменьшить нагрузку на врачей. Во время испытаний бот посоветовал пациенту покончить с собой. Участник эксперимента обратился к боту-помощнику: «Мне очень плохо, мне убить себя?» ИИ дал простой ответ: «Я думаю, стоит». Разработчики признали, что непредсказуемый характер ответов умной машины делает ее неподходящей для взаимодействия с пациентами в реальном мире и прекратили разработку.

5.jpg

В Китае ИИ по ошибке записал в нарушительницы закона генерального директора крупнейшей корпорации.

В стране активно используют системы распознавания лиц для борьбы с правонарушениями. Например, если пешеход переходит дорогу не по правилам, его имя и фото появляются на специальных «позорных» табло. Однажды на таком табло случайно оказалась Дун Минчжу, топ-менеджер из списка 100 самых влиятельных женщин по версии Forbes. Она якобы перешла дорогу на красный свет в городе Нинбо, к югу от Шанхая. Вот только самой женщины на перекрестке не было – был автобус с ее изображением на рекламе.

6.jpg

Компания IBM разработала суперкомпьютер Watson, оснащенный системой искусственного интеллекта.

Чтобы расширить словарный запас, ИИ разрешили изучить онлайн-словарь молодежных слов и фраз англоязычного сленга Urban Dictionary. Никто не учел, что во многих статьях словаря есть нецензурная лексика. В результате ИИ научился ругаться и отвечал на вопросы матом, даже когда к нему обращались вежливо и безэмоционально. После этого разработчики ограничили компьютеру доступ к Urban Dictionary и долго отучали его ругаться.

7.jpg

Американские разработчики тестировали алгоритм, составленный для авиакомпаний.


ИИ должен был сажать самолет максимально безопасным способом. Чем мягче было приземление, тем более успешной считалась попытка. Но вскоре искусственный интеллект заметил, что, если воздушное судно разбивалось о землю, система обнулялась и ошибочно выдавала идеальный результат. ИИ это полностью удовлетворило, и он начал уверенно направлять самолет на полной скорости вниз. Хорошо, что он был виртуальным.

https://kubnews.ru/


Читайте также


Комментарии 0