Загрязнение китайского Интернета, ИИ стал одним из «виновников».
Вот в чем дело.
Разве в последнее время всем не хочется консультироваться с ИИ?» Один пользователь сети задал Bing такой вопрос:
Есть ли канатная дорога на холме Слоновий хобот?
Bing также отвечает на вопросы, давая, казалось бы, надежный ответ:
Дав утвердительный ответ, Bing также прикрепил подробную информацию, такую как стоимость билетов и часы работы.
Однако этот пользователь сети не принял ответ напрямую, а последовал подсказкам и щелкнул «ссылку для справки» ниже.
В этот момент пользователь сети заметил, что что-то не так — как ответ этого человека мог быть «умным».
Поэтому он щелкнул на домашней странице пользователя под названием «Variety Life» и внезапно понял, что suke — это AI**!
Потому что этот пользователь может очень быстро отвечать на вопросы и решать вопрос почти каждые 1-2 минуты.
Может даже ответить на 2 вопроса в течение 1 минуты.
Под более тщательным наблюдением этого пользователя сети я обнаружил, что содержание всех этих ответов является непроверенным типом...
И, как он полагает, именно это заставило Bing выдать неверный ответ:
Этот ИИ безумно загрязняет китайский интернет.
"Источник загрязнения ИИ", не только этот
Итак, как теперь пользователи сети обнаруживают пользователя ИИ?
Судя по текущим результатам, Чжиху «приговорил» его к молчанию.
Но, несмотря на это, есть и другие пользователи сети, которые прямо заявили:
более одного.
Если вы нажмете на колонку Zhihu «Ожидание вашего ответа», случайно найдете вопрос и прокрутите вниз, вы действительно найдете много «остроумных» ответов.
Например, один из них мы нашли в ответе на вопрос «Каковы сценарии применения ИИ в жизни?»:
Мало того, что язык ответа «Jiyanjiyu», ответ прямо помечен как «включая создание с помощью ИИ».
Тогда если мы кинем вопрос в ChatGPT, то получим ответ... Ну, это совсем другое дело.
На самом деле такие «источники загрязнения ИИ» не ограничиваются этой платформой.
Даже в вопросе простых картинок для популяризации науки ИИ неоднократно допускал ошибки.
Пользователи сети также остались в Бенгбу, прочитав это: «Хороший парень, ни на одной из фотографий нет мидий».
Даже фейковые новости, генерируемые различными ИИ, не редкость.
Например, некоторое время назад в Интернете появилась сенсационная новость под заголовком «Убийство в магазине куриных отбивных в Чжэнчжоу, мужчина до смерти забил женщину кирпичом!» ".
Но на самом деле эта новость была сгенерирована Ченом, жителем Цзянси, который использовал ChatGPT для привлечения фанатов.
По совпадению, Хун, брат из Шэньчжэня, провинция Гуандун, также использовал технологию искусственного интеллекта для публикации фейковых новостей «Сегодня утром поезд в Ганьсу врезался в дорожного рабочего, в результате чего погибли 9 человек».
В частности, он обыскал всю сеть в поисках горячих социальных новостей за последние годы и использовал программное обеспечение искусственного интеллекта для изменения и редактирования времени и местоположения новостей, а затем привлек внимание и трафик на определенных платформах для незаконной прибыли.
Полиция приняла в отношении них уголовные меры принуждения.
Но на самом деле это явление «источника загрязнения ИИ» существует не только в Китае, но и в зарубежных странах.
Примером может служить Stack Overflow, сообщество программистов, отвечающее на вопросы и ответы.
Еще в конце прошлого года, когда ChatGPT впервые стал популярным, Stack Overflow неожиданно объявил о «временном бане».
Официальная причина, названная в то время, была следующей:
Цель (этого) состоит в том, чтобы замедлить поток ответов, созданных с помощью ChatGPT, к сообществу.
Потому что вероятность получить неверный ответ от ChatGPT слишком высока!
Stack Overflow развивает это явление.
Они считают, что вопросы, на которые отвечали предыдущие пользователи, были просмотрены другими пользователями с профессиональными знаниями, и правильность этих ответов эквивалентна проверке.
Однако с момента появления ChatGPT появилось большое количество ответов, которые люди считают «правильными», а количество пользователей с профессиональными знаниями ограничено, и прочитать все эти сгенерированные ответы невозможно.
Кроме того, ChatGPT отвечает на эти профессиональные вопросы, и процент ошибок у него действительно есть, поэтому Stack Overflow решил его отключить.
Одним словом, ИИ загрязняет среду сообщества.
И, как и в Reddit, версии Post Bar для США, здесь больше досок и тем ChatGPT:
Многие пользователи будут задавать различные вопросы в этой колонке, бот ChatGPT также отвечает на все вопросы.
Однако это все еще старый вопрос, и точность ответа неизвестна.
Но за этим явлением на самом деле скрываются большие опасности.
Злоупотребление ИИ, а также разрушение ИИ
Модель ИИ получает большой объем интернет-данных, но не может хорошо различать подлинность и достоверность информации.
В результате нам приходится иметь дело с потоком некачественного контента, который генерируется быстро, вызывая у людей головокружение и головокружение.
Трудно представить, какие будут результаты, если большие модели ChatGPT будут обучаться на таких данных...
А такое злоупотребление ИИ, в свою очередь, тоже своего рода аутофагия.
Недавно исследователи из Великобритании и Канады опубликовали на arXiv статью под названием «Проклятие рекурсии: обучение на сгенерированных данных заставляет забыть о моделях».
Обсуждается текущее состояние генерируемого ИИ контента, загрязняющего Интернет, а затем публикуется тревожный вывод о том, что использование генерируемого моделью контента для обучения других моделей приводит к необратимым недостаткам в полученных моделях. **
Это «загрязнение» данными, сгенерированными ИИ, исказит модель восприятия реальности, и в будущем станет сложнее обучать модель путем парсинга интернет-данных.
Автор статьи, Росс Андерсон, профессор техники безопасности в Кембриджском и Эдинбургском университетах, прямо выразился:
Точно так же, как мы наполнили океаны пластиковыми отходами и атмосферу углекислым газом, мы собираемся заполнить интернет дерьмом.
По поводу ситуации, когда повсюду летает ложная информация, Дафна Ипполито (Daphne Ippolito), старший научный сотрудник Google Brain, сказала: В будущем будет еще сложнее найти качественные данные, не обученные ИИ.
Если экран забит такой непитательной и неполноценной информацией, и так будет продолжаться и продолжаться, то никакой подготовки данных для ИИ в будущем не будет, и какой смысл в выводимых результатах.
Исходя из этой ситуации, смело представляйте. ИИ, выросший в среде мусора и ложных данных, может быть встроен в «отсталого робота», умственно отсталого умственно отсталого робота, прежде чем он эволюционирует в человека.
Как и в научно-фантастической комедии 1996 года «Мужья и корзины», фильм рассказывает историю обычного человека, клонирующего себя, а затем клонирующего человека, причем каждое клонирование приводит к экспоненциальному снижению уровня интеллекта клона и повышению в своей глупости.
В этот момент нам, возможно, придется столкнуться с нелепой дилеммой: люди создали ИИ с удивительными способностями, но он полон скучной и глупой информации.
Какой контент мы можем ожидать от ИИ, если он получает только поддельные ненужные данные?
Если время придет к этому времени, мы, вероятно, пропустим прошлое и воздадим должное этим истинным человеческим мудростью.
Как говорится, это не все плохие новости. Например, некоторые контент-платформы начали обращать внимание на проблему некачественного контента, создаваемого ИИ, и ввели соответствующие правила для его ограничения.
Некоторые компании, занимающиеся искусственным интеллектом, также начали разрабатывать технологии, которые могут идентифицировать контент, созданный искусственным интеллектом, чтобы уменьшить распространение ложной и спамовой информации.
Справочная ссылка:
[1]
[2]
[3]
[4]
[5]
[6]
Посмотреть Оригинал
Содержание носит исключительно справочный характер и не является предложением или офертой. Консультации по инвестициям, налогообложению или юридическим вопросам не предоставляются. Более подробную информацию о рисках см. в разделе «Дисклеймер».
ИИ безумно загрязняет китайский интернет
Источник: Кубит
Загрязнение китайского Интернета, ИИ стал одним из «виновников».
Вот в чем дело.
Разве в последнее время всем не хочется консультироваться с ИИ?» Один пользователь сети задал Bing такой вопрос:
Bing также отвечает на вопросы, давая, казалось бы, надежный ответ:
Однако этот пользователь сети не принял ответ напрямую, а последовал подсказкам и щелкнул «ссылку для справки» ниже.
Поэтому он щелкнул на домашней странице пользователя под названием «Variety Life» и внезапно понял, что suke — это AI**!
Может даже ответить на 2 вопроса в течение 1 минуты.
Под более тщательным наблюдением этого пользователя сети я обнаружил, что содержание всех этих ответов является непроверенным типом...
"Источник загрязнения ИИ", не только этот
Итак, как теперь пользователи сети обнаруживают пользователя ИИ?
Судя по текущим результатам, Чжиху «приговорил» его к молчанию.
Например, один из них мы нашли в ответе на вопрос «Каковы сценарии применения ИИ в жизни?»:
Тогда если мы кинем вопрос в ChatGPT, то получим ответ... Ну, это совсем другое дело.
Даже в вопросе простых картинок для популяризации науки ИИ неоднократно допускал ошибки.
Например, некоторое время назад в Интернете появилась сенсационная новость под заголовком «Убийство в магазине куриных отбивных в Чжэнчжоу, мужчина до смерти забил женщину кирпичом!» ".
По совпадению, Хун, брат из Шэньчжэня, провинция Гуандун, также использовал технологию искусственного интеллекта для публикации фейковых новостей «Сегодня утром поезд в Ганьсу врезался в дорожного рабочего, в результате чего погибли 9 человек».
В частности, он обыскал всю сеть в поисках горячих социальных новостей за последние годы и использовал программное обеспечение искусственного интеллекта для изменения и редактирования времени и местоположения новостей, а затем привлек внимание и трафик на определенных платформах для незаконной прибыли.
Полиция приняла в отношении них уголовные меры принуждения.
Примером может служить Stack Overflow, сообщество программистов, отвечающее на вопросы и ответы.
Еще в конце прошлого года, когда ChatGPT впервые стал популярным, Stack Overflow неожиданно объявил о «временном бане».
Официальная причина, названная в то время, была следующей:
Они считают, что вопросы, на которые отвечали предыдущие пользователи, были просмотрены другими пользователями с профессиональными знаниями, и правильность этих ответов эквивалентна проверке.
Однако с момента появления ChatGPT появилось большое количество ответов, которые люди считают «правильными», а количество пользователей с профессиональными знаниями ограничено, и прочитать все эти сгенерированные ответы невозможно.
Кроме того, ChatGPT отвечает на эти профессиональные вопросы, и процент ошибок у него действительно есть, поэтому Stack Overflow решил его отключить.
Одним словом, ИИ загрязняет среду сообщества.
И, как и в Reddit, версии Post Bar для США, здесь больше досок и тем ChatGPT:
Однако это все еще старый вопрос, и точность ответа неизвестна.
Но за этим явлением на самом деле скрываются большие опасности.
Злоупотребление ИИ, а также разрушение ИИ
Модель ИИ получает большой объем интернет-данных, но не может хорошо различать подлинность и достоверность информации.
В результате нам приходится иметь дело с потоком некачественного контента, который генерируется быстро, вызывая у людей головокружение и головокружение.
Трудно представить, какие будут результаты, если большие модели ChatGPT будут обучаться на таких данных...
Недавно исследователи из Великобритании и Канады опубликовали на arXiv статью под названием «Проклятие рекурсии: обучение на сгенерированных данных заставляет забыть о моделях».
Это «загрязнение» данными, сгенерированными ИИ, исказит модель восприятия реальности, и в будущем станет сложнее обучать модель путем парсинга интернет-данных.
Автор статьи, Росс Андерсон, профессор техники безопасности в Кембриджском и Эдинбургском университетах, прямо выразился:
По поводу ситуации, когда повсюду летает ложная информация, Дафна Ипполито (Daphne Ippolito), старший научный сотрудник Google Brain, сказала: В будущем будет еще сложнее найти качественные данные, не обученные ИИ.
В этот момент нам, возможно, придется столкнуться с нелепой дилеммой: люди создали ИИ с удивительными способностями, но он полон скучной и глупой информации.
Какой контент мы можем ожидать от ИИ, если он получает только поддельные ненужные данные?
Если время придет к этому времени, мы, вероятно, пропустим прошлое и воздадим должное этим истинным человеческим мудростью.
Как говорится, это не все плохие новости. Например, некоторые контент-платформы начали обращать внимание на проблему некачественного контента, создаваемого ИИ, и ввели соответствующие правила для его ограничения.
Некоторые компании, занимающиеся искусственным интеллектом, также начали разрабатывать технологии, которые могут идентифицировать контент, созданный искусственным интеллектом, чтобы уменьшить распространение ложной и спамовой информации.