L'IA pollue follement l'Internet chinois

Source : Qubit

Pollution de l'Internet chinois, l'IA est devenue l'un des "coupables".

Voici la chose.

Tout le monde n'a-t-il pas envie de consulter l'IA récemment ? Un internaute a posé une telle question à Bing :

Y a-t-il un téléphérique à Elephant Trunk Hill ?

Bing répond également aux questions, donnant une réponse apparemment fiable :

Après avoir donné une réponse affirmative, Bing a également joint intimement des informations détaillées telles que le prix des billets et les heures d'ouverture.

Cependant, cet internaute n'a pas directement accepté la réponse, mais a suivi les indices et a cliqué sur le "lien de référence" ci-dessous.

À ce moment, l'internaute a remarqué que quelque chose n'allait pas - comment la réponse de cette personne pouvait-elle être "intelligente".

Il a donc cliqué sur la page d'accueil de l'utilisateur appelée "Variety Life", et s'est soudain rendu compte que suke est une IA** !

Parce que cet utilisateur peut répondre très rapidement aux questions et peut résoudre une question presque toutes les 1 ou 2 minutes.

Peut même répondre à 2 questions en 1 minute.

Sous l'observation plus attentive de cet internaute, j'ai découvert que le contenu de ces réponses sont tous des types ** non vérifiés ** ...

Et, pense-t-il, c'est ce qui a poussé Bing à donner la mauvaise réponse :

Cette IA pollue follement l'Internet chinois.

"Source de pollution par l'IA", pas seulement celle-ci

Alors, comment l'utilisateur de l'IA est-il découvert par les internautes maintenant ?

A en juger par les résultats actuels, il a été "condamné" à un état de silence par Zhihu.

Mais malgré cela, il y a d'autres internautes qui ont dit sans ambages :

plus d'un.

Si vous cliquez sur la colonne "En attente de votre réponse" de Zhihu, trouvez une question au hasard et faites défiler vers le bas, vous rencontrerez en effet de nombreuses réponses "spirituelles".

Par exemple, nous en avons trouvé un dans la réponse à "Quels sont les scénarios d'application de l'IA dans la vie ?" :

Non seulement le langage de la réponse est "Jiyanjiyu", mais la réponse est directement étiquetée "y compris la création assistée par l'IA".

Ensuite, si nous lançons la question à ChatGPT, alors obtenons la réponse... Eh bien, c'est tout un changement.

En fait, ces "sources de pollution par l'IA" ne se limitent pas à cette plate-forme.

Même en matière de simples images de vulgarisation scientifique, l'IA a commis des erreurs à plusieurs reprises.

Les internautes sont également restés à Bengbu après avoir lu ceci : "Bon gars, aucune des photos ne représente des moules".

Même les fausses nouvelles générées par diverses IA ne sont pas rares.

Par exemple, il y a quelque temps, une nouvelle sensationnelle est devenue virale sur Internet : « Meurtre au magasin de côtelettes de poulet de Zhengzhou, un homme bat une femme à mort avec une brique ! ".

Mais en fait, cette nouvelle a été générée par Chen, un homme du Jiangxi, utilisant ChatGPT pour attirer des fans.

Par coïncidence, Hong, un frère de Shenzhen, Guangdong, a également utilisé la technologie de l'IA pour publier la fausse nouvelle "Ce matin, un train à Gansu s'est écrasé sur un travailleur de la construction de routes, tuant 9 personnes".

Plus précisément, il a recherché sur l'ensemble du réseau des actualités sociales à la mode ces dernières années et a utilisé un logiciel d'intelligence artificielle pour modifier et éditer l'heure et le lieu des actualités, puis a attiré l'attention et le trafic sur certaines plates-formes à des fins illégitimes.

La police a pris des mesures pénales coercitives à leur encontre.

Mais en fait, ce phénomène de "source de pollution AI" existe non seulement en Chine, mais aussi dans les pays étrangers.

Stack Overflow, une communauté de questions-réponses pour les programmeurs, en est un exemple.

Dès la fin de l'année dernière, lorsque ChatGPT est devenu populaire pour la première fois, Stack Overflow a soudainement annoncé une "interdiction temporaire".

La raison officielle invoquée à l'époque était la suivante :

Le but (de faire cela) est de ralentir le flux du flot de réponses créées à l'aide de ChatGPT vers la communauté. Parce que la probabilité d'obtenir de mauvaises réponses de ChatGPT est trop élevée !

Stack Overflow développe davantage ce phénomène.

Ils pensent que les questions auxquelles ont répondu les utilisateurs précédents ont été parcourues par d'autres utilisateurs ayant des connaissances professionnelles, et qu'elles soient correctes ou non équivaut à une vérification.

Cependant, depuis l'émergence de ChatGPT, un grand nombre de réponses que les gens pensent être "correctes" ont émergé ; et le nombre d'utilisateurs ayant des connaissances professionnelles est limité, et il est impossible de lire toutes ces réponses générées.

De plus, ChatGPT répond à ces questions professionnelles, et son taux d'erreur est bien là ; du coup, Stack Overflow a choisi de le désactiver.

En un mot, l'IA pollue l'environnement communautaire.

Et comme sur Reddit, la version américaine de Post Bar, il y a plus de forums et de sujets ChatGPT :

De nombreux utilisateurs poseront diverses questions dans cette colonne, et le bot ChatGPT répond également à toutes les questions.

Cependant, c'est encore une vieille question, et l'exactitude de la réponse est inconnue.

Mais derrière ce phénomène, il y a en réalité de plus grands dangers cachés.

Abuser l'IA, ruiner également l'IA

Le modèle d'IA obtient une grande quantité de données Internet, mais ne peut pas bien distinguer l'authenticité et la crédibilité des informations.

Le résultat est que nous devons faire face à un flot de contenus de mauvaise qualité qui sont générés rapidement, ce qui rend les gens étourdis et étourdis.

Il est difficile d'imaginer à quoi ressembleront les résultats si les grands modèles de ChatGPT sont entraînés avec ce type de données...

Et un tel abus de l'IA, à son tour, est aussi une sorte d'autophagie.

Récemment, des chercheurs du Royaume-Uni et du Canada ont publié un article intitulé « The Curse of Recursion : Training on Generated Data Makes Models Forget » sur arXiv.

Discute de l'état actuel du contenu généré par l'IA polluant Internet, puis publie une découverte inquiétante selon laquelle l'utilisation de contenu généré par un modèle pour entraîner d'autres modèles entraîne des défauts irréversibles dans les modèles résultants. **

Cette « pollution » des données générées par l'IA déformera la perception de la réalité du modèle, et il deviendra plus difficile de former le modèle en grattant les données Internet à l'avenir.

L'auteur de l'article, Ross Anderson, professeur d'ingénierie de la sécurité aux universités de Cambridge et d'Édimbourg, l'a dit sans ambages :

Tout comme nous avons rempli les océans de déchets plastiques et l'atmosphère de dioxyde de carbone, nous sommes sur le point de remplir Internet de merde.

Concernant la situation où de fausses informations volent partout, Daphne Ippolito (Daphne Ippolito), chercheuse senior chez Google Brain, a déclaré: Il sera encore plus difficile de trouver des données de haute qualité qui n'ont pas été formées par l'IA à l'avenir.

Si l'écran est plein de ce type d'informations non nutritives et inférieures, et que cela continue ainsi, il n'y aura pas de formation sur les données pour l'IA à l'avenir, et quelle est la signification des résultats de sortie.

Sur la base de cette situation, imaginez hardiment. Une IA qui a grandi dans un environnement de déchets et de fausses données peut être intégrée dans un "robot retardé", un robot mentalement retardé mentalement, avant qu'il n'évolue en être humain.

Tout comme le film de comédie de science-fiction de 1996 Husbands and Baskets, le film raconte l'histoire d'une personne ordinaire se clonant, puis clonant un être humain, chaque clonage entraînant une baisse exponentielle du niveau d'intelligence du clone et une augmentation. dans sa bêtise.

À ce stade, nous devrons peut-être faire face à un dilemme ridicule : les humains ont créé une IA aux capacités étonnantes, mais elle regorge d'informations ennuyeuses et stupides.

Quel type de contenu pouvons-nous nous attendre à ce que l'IA crée si elle ne contient que de fausses données indésirables ?

Si le moment vient à ce moment-là, nous manquerons probablement le passé et rendrons hommage à cette véritable sagesse humaine.

Cela étant dit, ce ne sont pas toutes de mauvaises nouvelles. Par exemple, certaines plateformes de contenu ont commencé à prêter attention au problème du contenu de qualité inférieure généré par l'IA et ont introduit des réglementations pertinentes pour le limiter.

Certaines entreprises d'IA ont également commencé à développer des technologies capables d'identifier le contenu généré par l'IA afin de réduire l'explosion des fausses informations et des spams de l'IA.

Lien de référence : [1] [2] [3] [4] [5] [6]

Voir l'original
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
  • Récompense
  • Commentaire
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)