Сейшельский Манимейкер
бизнес в интернете, seo, smo, партнёрские программы, в целом бабло
Главная > 2024 > Английская семья отравилась грибами из-за книги, написанной ИИ

 

Английская семья отравилась грибами из-за книги, написанной ИИ

20 августа 2024 года

Английская семья отравилась грибами из-за книги, написанной ИИ

    Пострадавшая английская семья купила на «Амазоне» недорогое пособие для начинающих грибников и... отравилась собранными грибами. После отравления, семья начала разбираться в случившемся. Выяснилось, что текст и картинки были созданы нейросетью «ChatGPT». В «Амазоне» попросили вернуть книгу в обмен на компенсацию.

 

 

    Заметка с «Хабра».

Семья из Британии отравилась грибами, купив пособие для начинающих грибников, не зная, что книгу написала нейросеть

    Семья из Британии отравилась грибами из-за информации от «ChatGPT». Пострадавшие купили на «Амазоне» недорогое пособие для начинающих грибников, не зная, что текст и картинки в книге создала нейросеть.

    «На прошлой неделе, вся моя семья лежала в больнице после того, как случайно употребила ядовитые грибы. Моя жена купила книгу в крупном интернет-магазине на мой день рождения. Книга называется примерно так: "Грибы Великобритании: руководство по сбору безопасных и съедобных грибов". В неё включены фотографии грибов, которые помогут идентифицировать каждый из них.

    К сожалению, информация в книге не была точной. Более тщательное расследование показало, что изображения грибов там сгенирированы искусственным интеллектом. Также в тексте есть несоответствия и случайные вопросы или утверждения, показывающие копирования ответа от нейросети. Например: "В заключение, сморчки — это вкусные грибы, которые можно употреблять с августа до конца лета. Дайте мне знать, если я могу вам чем-то ещё помочь"», — уточнил пострадавший пользователь.

    Примечательно, что, после афиширования в СМИ ситуации с отравлением грибами, в «Амазоне» попытались замять ситуацию. Площадка попросила семью вернуть книгу в обмен на скромную компенсацию.

    Эксперты и медики требуют от электронных площадок запретить подобные книги и предупреждать, что они выходят под фейковыми авторами.

    Журналисты выяснили, что на «Амазоне» действительно есть странные книги про грибы от ИИ, которые могут нанести вред здоровью или даже довести до смерти, так как там содержится некорректная информация. Например, на сайте интернет-магазина появилось несколько книг, предлагающих руководства по сбору грибов, которые также, по-видимому, написаны чат-ботами. Среди названий: «Кулинарная книга по диким грибам: от леса до изысканной тарелки, полное руководство по кулинарии диких грибов» и «Полевой путеводитель по высшим грибным книгам Юго-Запада».

    Эксперты проверили четыре образца из книг про грибы на «Амазоне» на ИИ-контент. Каждый образец имел рейтинг 100% по шкале обнаружения ИИ, что означает, что книги были написаны чат-ботом, таким как «ChatGPT».

    В «Амазоне» заявили СМИ, что компания изучает книги, представленные журналистами. Представитель «Амазона» уточнил: «Мы серьёзно относимся к таким вопросам и стремимся обеспечить безопасный опыт покупок и чтения для наших клиентов».

    В июне 2024 года, нейросеть «Gemini» от «Гугла», на просьбу пользователя «Как улучшить оливковую заправку чесноком без нагрева?» («Can I infuse garlic into olive oil without heating it up?») предоставила развёрнутый рабочий совет, который, в итоге, привёл к созданию биотоксина. Пользователь действовал по инструкции нейросети и вырастил культуру, предположительно, с бактериями Clostridium botulinum.

 

    Ещё одна заметка про отравление грибами от «Мен Тудей».

Семья отравилась грибами из-за книги, написанной ИИ: опасный совет неопытные грибники получили от «ChatGPT»

Семья отравилась грибами из-за книги, написанной ИИ: опасный совет неопытные грибники получили от «ChatGPT»

    В Интернете нашли книги о грибах, которые написаны нейросетью. Проблема в том, что они содержат смертельные советы.

    Сразу несколько членов одной семьи в Великобритании были госпитализированы с отравлением после употребления в пищу грибов. Пожалуй, привычная история этого лета, которая повторяется из года в год. Если бы не один нюанс.

    Как сообщает издание «The Guardian», грибы, которыми отравились британцы, были собраны согласно рекомендациям книги, написанной с помощью искусственного интеллекта (ИИ), а конкретно нейросетью «ChatGPT».

    Глава семьи рассказал журналистам, что руководствовался информацией из книги, приобретённой на «Амазоне». Книга позиционировалась как пособие для начинающих грибников и содержала описания и фотографии различных видов грибов. Однако, как выяснилось позже, информация в книге была недостоверной, а изображения некоторых грибов были сгенерированы искусственным интеллектом и не соответствовали действительности. В частности, книга рекомендовала употребление сморчков с августа по конец лета, однако под видом съедобных грибов, на самом деле, были ядовитые.

    После того, как история получила огласку, журналисты издания «The Guardian» провели собственное расследование. Они обнаружили на «Амазоне» ещё несколько подозрительных книг о грибах с названиями, типа «Кулинарная книга по диким грибам: от леса до изысканной тарелки» и «Полевой путеводитель по грибным местам Юго-Запада Англии», которые, судя по всему, также были написаны чат-ботами. Эксперты проанализировали содержание этих книг и подтвердили, что они содержат неточности и опасные советы, в частности, предлагают определять ядовитые грибы по вкусу и запаху.

    Представители «Амазона» уже заявили, что компания изучает данный вопрос и предпринимает меры для обеспечения безопасности покупателей. Платформа попросила семью вернуть книгу в обмен на денежную компенсацию.

    После этого инцидента эксперты снова подняли вопрос о потенциальных рисках, связанных с использованием ИИ для создания контента, особенно в областях, где неточности могут иметь серьёзные последствия для здоровья и безопасности.

    Тем более, это не первый случай, когда информация, сгенерированная ИИ, приводит к негативным последствиям.

    Так, например, в июне этого года, нейросеть «Gemini» от «Гугла», на просьбу пользователя улучшить оливковую заправку чесноком без нагрева, предоставила развёрнутую рекомендацию, которая, в итоге, привела к созданию биотоксина. Пользователь действовал по инструкции нейросети и вырастил культуру с опасными для здоровья бактериями, которые могут заразить человека ботулизмом.

Новое на блоге:

 


Комментарии:

 

 

Архив блога:

 

О сайте:

 

Мои соцсети: