Contaminación del Internet chino, la IA se ha convertido en uno de los "culpables".
Aquí está la cosa.
¿No está todo el mundo interesado en consultar a la IA recientemente? Un internauta le hizo a Bing una pregunta de este tipo:
¿Hay un teleférico en Elephant Trunk Hill?
Bing también está respondiendo preguntas, dando una respuesta aparentemente confiable:
Luego de dar una respuesta afirmativa, Bing también adjuntó íntimamente información detallada como precios de boletos y horarios comerciales.
Sin embargo, este internauta no aceptó directamente la respuesta, sino que siguió las pistas e hizo clic en el "enlace de referencia" a continuación.
En este momento, el internauta notó que algo andaba mal: ¿cómo podría ser "inteligente" la respuesta de esta persona?
Así que hizo clic en la página de inicio del usuario llamada "Variety Life", y de repente se dio cuenta de que suke es una IA**.
Porque este usuario puede responder preguntas muy rápido y puede resolver una pregunta casi cada 1 o 2 minutos.
Incluso puede responder 2 preguntas en 1 minuto.
Bajo la observación más cuidadosa de este internauta, descubrí que el contenido de estas respuestas son todos tipos no verificados...
Y, él cree, esto es lo que hizo que Bing emitiera la respuesta incorrecta:
Esta IA está contaminando locamente Internet en China.
"Fuente de contaminación de la IA", no solo esta
Entonces, ¿cómo es que los internautas descubren ahora al usuario de IA?
A juzgar por los resultados actuales, Zhihu lo ha "sentenciado" a un estado de silencio.
Pero a pesar de esto, hay otros cibernautas que sin rodeos dijeron:
más de uno.
Si hace clic en la columna "Esperando su respuesta" de Zhihu, encuentra una pregunta al azar y se desplaza hacia abajo, encontrará muchas respuestas "ingeniosas".
Por ejemplo, encontramos uno en la respuesta a "¿Cuáles son los escenarios de aplicación de la IA en la vida?":
El idioma de la respuesta no solo es "Jiyanjiyu", sino que la respuesta está directamente etiquetada como "incluida la creación asistida por IA".
Luego, si lanzamos la pregunta a ChatGPT, obtenemos la respuesta... Bueno, es un gran cambio.
De hecho, tales "fuentes de contaminación de IA" no se limitan a esta plataforma.
Incluso en el caso de imágenes simples de divulgación científica, la IA ha cometido errores repetidamente.
Los internautas también se quedaron en Bengbu después de leer esto: "Buen chico, ninguna de las fotos son de mejillones".
Incluso las noticias falsas generadas por varias IA no son infrecuentes.
Por ejemplo, hace algún tiempo, hubo una noticia sensacional que se hizo viral en Internet, cuyo titular decía: "¡Asesinato en Zhengzhou Chicken Chop Shop, hombre golpea a mujer hasta matarla con un ladrillo!" ".
Pero, de hecho, esta noticia fue generada por Chen, un hombre de Jiangxi, usando ChatGPT para atraer fanáticos.
Coincidentemente, Hong, un hermano de Shenzhen, Guangdong, también usó tecnología de IA para publicar la noticia falsa "Esta mañana, un tren en Gansu se estrelló contra un trabajador de la construcción de carreteras, matando a 9 personas".
Específicamente, buscó en toda la red las últimas noticias sociales en los últimos años y usó software de inteligencia artificial para modificar y editar la hora y la ubicación de las noticias, y luego ganó atención y tráfico en ciertas plataformas para obtener ganancias ilegales.
La policía ha tomado medidas coercitivas penales contra ellos.
Pero, de hecho, este fenómeno de "fuente de contaminación por IA" no solo existe en China, sino también en países extranjeros.
Stack Overflow, una comunidad de preguntas y respuestas para programadores, es un ejemplo.
Ya a fines del año pasado, cuando ChatGPT se hizo popular por primera vez, Stack Overflow anunció repentinamente una "prohibición temporal".
La razón oficial dada en ese momento fue la siguiente:
El propósito (de hacer esto) es ralentizar el flujo de la avalancha de respuestas creadas con ChatGPT para la comunidad.
¡Porque la probabilidad de obtener respuestas incorrectas de ChatGPT es demasiado alta!
Stack Overflow profundiza en este fenómeno.
Creen que las preguntas respondidas por usuarios anteriores fueron consultadas por otros usuarios con antecedentes de conocimientos profesionales, y si son correctas o no es equivalente a la verificación.
Sin embargo, desde la aparición de ChatGPT, ha surgido una gran cantidad de respuestas que la gente cree que son "correctas", y la cantidad de usuarios con antecedentes de conocimientos profesionales es limitada y es imposible leer todas estas respuestas generadas.
Además, ChatGPT responde a estas preguntas profesionales, y su tasa de error realmente está ahí; por lo tanto, Stack Overflow optó por deshabilitarlo.
En una palabra, IA contamina el medio ambiente de la comunidad.
Y al igual que en Reddit, la versión estadounidense de Post Bar, hay más tableros y temas de ChatGPT:
Muchos usuarios harán varias preguntas en esta columna, y el bot ChatGPT también responde todas las preguntas.
Sin embargo, sigue siendo una vieja pregunta y se desconoce la precisión de la respuesta.
Pero detrás de este fenómeno, en realidad hay peligros ocultos mayores.
Abusando de la IA, también arruinando la IA
El modelo de IA obtiene una gran cantidad de datos de Internet, pero no puede distinguir bien la autenticidad y credibilidad de la información.
El resultado es que tenemos que lidiar con una avalancha de contenido de baja calidad que se genera rápidamente, mareando y mareando a la gente.
Es difícil imaginar cómo serán los resultados si los grandes modelos de ChatGPT se entrenan con este tipo de datos...
Y tal abuso de la IA, a su vez, también es una especie de autofagia.
Recientemente, investigadores del Reino Unido y Canadá publicaron un artículo titulado "La maldición de la recurrencia: el entrenamiento en datos generados hace que los modelos se olviden" en arXiv.
Analiza el estado actual del contenido generado por IA que contamina Internet y luego publica un hallazgo preocupante de que el uso de contenido generado por modelos para entrenar otros modelos conduce a fallas irreversibles en los modelos resultantes. **
Esta "contaminación" de datos generados por IA distorsionará la percepción de la realidad del modelo, y será más difícil entrenar el modelo extrayendo datos de Internet en el futuro.
El autor del artículo, Ross Anderson, profesor de ingeniería de seguridad en las universidades de Cambridge y Edimburgo, lo expresó sin rodeos:
Así como llenamos los océanos con desechos plásticos y la atmósfera con dióxido de carbono, estamos a punto de llenar Internet con basura.
Con respecto a la situación en la que la información falsa vuela por todas partes, Daphne Ippolito (Daphne Ippolito), científica investigadora sénior de Google Brain, dijo: Será aún más difícil encontrar datos de alta calidad que no hayan sido entrenados por IA en el futuro.
Si la pantalla está llena de este tipo de información no nutritiva e inferior, y sigue y sigue así, entonces no habrá entrenamiento de datos para IA en el futuro, y cuál es el significado de los resultados de salida.
Basado en esta situación, imagínese audazmente. Una IA que creció en un entorno de basura y datos falsos puede adaptarse a un "robot retrasado", un robot con retraso mental, antes de que se convierta en un ser humano.
Al igual que la película de comedia de ciencia ficción de 1996 Maridos y canastas, la película cuenta la historia de una persona común que se clona a sí misma y luego clona a un ser humano, y cada clonación conduce a una disminución exponencial en el nivel de inteligencia del clon y un aumento. en su estupidez.
En ese momento, es posible que tengamos que enfrentar un dilema ridículo: los humanos han creado una IA con capacidades asombrosas, pero está llena de información aburrida y estúpida.
¿Qué tipo de contenido podemos esperar que cree la IA si solo se alimenta con datos basura falsos?
Si llega el momento de ese momento, probablemente echaremos de menos el pasado y rendiremos tributo a esa verdadera sabiduría humana.
Dicho esto, no todo son malas noticias. Por ejemplo, algunas plataformas de contenido han comenzado a prestar atención al problema del contenido inferior generado por la IA y han introducido regulaciones relevantes para limitarlo.
Algunas empresas de IA también han comenzado a desarrollar tecnologías que pueden identificar contenido generado por IA para reducir la explosión de información falsa y spam de IA.
Link de referencia:
[1]
[2]
[3]
[4]
[5]
[6]
Ver originales
El contenido es solo de referencia, no una solicitud u oferta. No se proporciona asesoramiento fiscal, legal ni de inversión. Consulte el Descargo de responsabilidad para obtener más información sobre los riesgos.
La IA está contaminando locamente Internet en China
Fuente: Qubit
Contaminación del Internet chino, la IA se ha convertido en uno de los "culpables".
Aquí está la cosa.
¿No está todo el mundo interesado en consultar a la IA recientemente? Un internauta le hizo a Bing una pregunta de este tipo:
Bing también está respondiendo preguntas, dando una respuesta aparentemente confiable:
Sin embargo, este internauta no aceptó directamente la respuesta, sino que siguió las pistas e hizo clic en el "enlace de referencia" a continuación.
Así que hizo clic en la página de inicio del usuario llamada "Variety Life", y de repente se dio cuenta de que suke es una IA**.
Incluso puede responder 2 preguntas en 1 minuto.
Bajo la observación más cuidadosa de este internauta, descubrí que el contenido de estas respuestas son todos tipos no verificados...
"Fuente de contaminación de la IA", no solo esta
Entonces, ¿cómo es que los internautas descubren ahora al usuario de IA?
A juzgar por los resultados actuales, Zhihu lo ha "sentenciado" a un estado de silencio.
Por ejemplo, encontramos uno en la respuesta a "¿Cuáles son los escenarios de aplicación de la IA en la vida?":
Luego, si lanzamos la pregunta a ChatGPT, obtenemos la respuesta... Bueno, es un gran cambio.
Incluso en el caso de imágenes simples de divulgación científica, la IA ha cometido errores repetidamente.
Por ejemplo, hace algún tiempo, hubo una noticia sensacional que se hizo viral en Internet, cuyo titular decía: "¡Asesinato en Zhengzhou Chicken Chop Shop, hombre golpea a mujer hasta matarla con un ladrillo!" ".
Coincidentemente, Hong, un hermano de Shenzhen, Guangdong, también usó tecnología de IA para publicar la noticia falsa "Esta mañana, un tren en Gansu se estrelló contra un trabajador de la construcción de carreteras, matando a 9 personas".
Específicamente, buscó en toda la red las últimas noticias sociales en los últimos años y usó software de inteligencia artificial para modificar y editar la hora y la ubicación de las noticias, y luego ganó atención y tráfico en ciertas plataformas para obtener ganancias ilegales.
La policía ha tomado medidas coercitivas penales contra ellos.
Stack Overflow, una comunidad de preguntas y respuestas para programadores, es un ejemplo.
Ya a fines del año pasado, cuando ChatGPT se hizo popular por primera vez, Stack Overflow anunció repentinamente una "prohibición temporal".
La razón oficial dada en ese momento fue la siguiente:
Creen que las preguntas respondidas por usuarios anteriores fueron consultadas por otros usuarios con antecedentes de conocimientos profesionales, y si son correctas o no es equivalente a la verificación.
Sin embargo, desde la aparición de ChatGPT, ha surgido una gran cantidad de respuestas que la gente cree que son "correctas", y la cantidad de usuarios con antecedentes de conocimientos profesionales es limitada y es imposible leer todas estas respuestas generadas.
Además, ChatGPT responde a estas preguntas profesionales, y su tasa de error realmente está ahí; por lo tanto, Stack Overflow optó por deshabilitarlo.
En una palabra, IA contamina el medio ambiente de la comunidad.
Y al igual que en Reddit, la versión estadounidense de Post Bar, hay más tableros y temas de ChatGPT:
Sin embargo, sigue siendo una vieja pregunta y se desconoce la precisión de la respuesta.
Pero detrás de este fenómeno, en realidad hay peligros ocultos mayores.
Abusando de la IA, también arruinando la IA
El modelo de IA obtiene una gran cantidad de datos de Internet, pero no puede distinguir bien la autenticidad y credibilidad de la información.
El resultado es que tenemos que lidiar con una avalancha de contenido de baja calidad que se genera rápidamente, mareando y mareando a la gente.
Es difícil imaginar cómo serán los resultados si los grandes modelos de ChatGPT se entrenan con este tipo de datos...
Recientemente, investigadores del Reino Unido y Canadá publicaron un artículo titulado "La maldición de la recurrencia: el entrenamiento en datos generados hace que los modelos se olviden" en arXiv.
Esta "contaminación" de datos generados por IA distorsionará la percepción de la realidad del modelo, y será más difícil entrenar el modelo extrayendo datos de Internet en el futuro.
El autor del artículo, Ross Anderson, profesor de ingeniería de seguridad en las universidades de Cambridge y Edimburgo, lo expresó sin rodeos:
Con respecto a la situación en la que la información falsa vuela por todas partes, Daphne Ippolito (Daphne Ippolito), científica investigadora sénior de Google Brain, dijo: Será aún más difícil encontrar datos de alta calidad que no hayan sido entrenados por IA en el futuro.
En ese momento, es posible que tengamos que enfrentar un dilema ridículo: los humanos han creado una IA con capacidades asombrosas, pero está llena de información aburrida y estúpida.
¿Qué tipo de contenido podemos esperar que cree la IA si solo se alimenta con datos basura falsos?
Si llega el momento de ese momento, probablemente echaremos de menos el pasado y rendiremos tributo a esa verdadera sabiduría humana.
Dicho esto, no todo son malas noticias. Por ejemplo, algunas plataformas de contenido han comenzado a prestar atención al problema del contenido inferior generado por la IA y han introducido regulaciones relevantes para limitarlo.
Algunas empresas de IA también han comenzado a desarrollar tecnologías que pueden identificar contenido generado por IA para reducir la explosión de información falsa y spam de IA.