Si alguien te elogia, tal vez no seas muy excepcional, pero él debe ser muy excepcional; si alguien se burla de ti, no necesariamente tienes un problema, pero él debe tener algún defecto. giro brusco de 90 grados A continuación, se interpreta la relación entre el cumplimiento técnico y la inteligencia humana, basada en los requisitos fundamentales de la Ley de Inteligencia Artificial de la UE y los casos prácticos de Sapien, centrándose en historias reales y soluciones:
🌍 Uno, la "línea base humanista" del proyecto de ley: cuando la IA debe aprender a respetar a los humanos
La disposición más dura de la "Ley de Inteligencia Artificial" de la Unión Europea no es la precisión del algoritmo, sino que "los humanos deben estar siempre presentes" —
Supervisión humana obligatoria en escenarios de alto riesgo: las decisiones de IA en diagnósticos médicos, evaluaciones de contratación, etc., deben estar equipadas con un botón de intervención humana, los médicos pueden anular con un solo clic el error de diagnóstico de cáncer de la IA.
Prohibición de "manipulación en caja negra": como utilizar la IA para analizar las debilidades de los usuarios y inducir al consumo (la multa de la ley puede alcanzar hasta el 7% de los ingresos anuales globales);
El contenido generado debe estar marcado: las novelas escritas por ChatGPT deben declarar "esto es generado por IA", para evitar hacerse pasar por una creación humana.
"Esto no es una limitación de la tecnología, sino una protección de la humanidad", como dijo un legislador de Bruselas: "El valor de la IA no radica en reemplazar el pensamiento humano, sino en amplificar la bondad humana."
🛠️ Dos, la solución de Sapien: convertir la "supervisión humana" en el sustento de millones de personas comunes.
La legislación de la UE exige supervisión humana de la IA, pero ¿quién supervisa? ¿Cómo se supervisa? Sapien ofrece respuestas a través de las historias de tres tipos de personas:
1. Mamá Li de Yunnan: el guardián del dialecto se convierte en "corrector ético" de IA
La hermana Li fue anotadora de voz en dialecto, y tras la entrada en vigor de la legislación de la UE, su trabajo se le agregó la tarea de "interceptación de sesgos":
Cuando la IA etiquetó erróneamente el término del dialecto de Yunnan "憨包" (tonto) como un término positivo, ella etiquetó manualmente el contexto real: "Este término tiene una connotación insultante, está prohibido";
El AI médico en el que participó en el entrenamiento debe pasar 2000 pruebas de dialectos antes de ser implementado en la Unión Europea. Ella descubrió 3 expresiones discriminatorias y las corrigió.
"Antes pensaba que la IA era inalcanzable, ¡ahora la ley de la UE dice que no puede ejercer sin nuestra firma!" — La firma del ticket de trabajo de la hermana Li se ha convertido en un eslabón en la cadena de cumplimiento de la IA.
2. Ingeniero de Berlín, Mark: el "guardián" contra los sesgos de la IA
Mark es responsable de revisar la IA de contratación en la plataforma Sapien:
Descubrió que un algoritmo asociaba automáticamente avatares femeninos con "enfermeras", lo que activó de inmediato un protocolo de corrección: añadir datos de entrenamiento de imágenes de cuidadores masculinos;
Según los requisitos de la ley, debe presentar el "Registro de Supervisión Humana" para demostrar que cada intervención cumple con el "principio de no discriminación".
3. Joseph, un joven de Kenia: protegiendo la fauna salvaje con etiquetas
La ruta de migración de animales marcada por Joseph, originalmente utilizada para el sistema de inteligencia artificial contra la caza furtiva. Después de que la ley entró en vigor, añadió una nueva tarea:
Ejemplo de falso positivo de IA: como confundir el movimiento de la hierba con cazadores furtivos, para evitar que los guardabosques corran en vano;
Instrucciones clave de verificación manual: Antes de que la IA emita la orden "disparar dardo anestésico", se requiere que Joseph confirme las coordenadas por segunda vez.
⚖️ Tres, las oportunidades ocultas de la ley: las personas comunes se convirtieron en "co-creadores de reglas" en el mundo de la IA.
La legislación de la UE parece ser restrictiva, pero en realidad convierte la experiencia humana en activos cumplidores:
Datos de cumplimiento de precios dinámicos: la etiquetación de idiomas minoritarios como el tibetano, debido a la escasez de demanda por "anti-discriminación", ha aumentado en un 50%.
Intervención humana en el registro de la cadena de bloques: el médico anula el diagnóstico de IA y lo registra en la cadena, convirtiéndose en una evidencia clave para la auditoría de cumplimiento del hospital.
"Sistema de Certificación de Habilidades Humanas": los etiquetadores que aprueben el examen ético de la UE pueden obtener la certificación para el comercio transfronterizo.
"La ley convierte la IA de un juguete de las empresas tecnológicas en una herramienta de construcción colectiva para todos."
——Un auditor de ética de IA de Madrid descubrió que el 30% de los etiquetadores en España proviene de las regiones del sur con alta tasa de desempleo.
🌱 Conclusión: Cuanto más fría es la tecnología, más necesita la calidez de la humanidad.
En Sarajevo, un sobreviviente de la guerra etiqueta imágenes de los escombros de explosiones a través de Sapien.
Ella insistió en marcar junto a los escombros: "Aquí solía haber un columpio para niños"; la IA solo ve muros en ruinas, mientras que ella ve la vida que ha desaparecido.
La "supervisión humana" exigida por la legislación de la UE es, en esencia, dejar espacio para la memoria, la dignidad y la esperanza en la tecnología.
Cuando la IA global corre desenfrenadamente, el significado de que la Unión Europea pise el freno es:
"No todo valor puede ser cuantificado por algoritmos, pero cada percepción humana merece ser codificada."
Comité del Partido del Pueblo de la Aldea de Shenzi Chen #CookieDotFun # sapien #playsapien # SNAPS @cookiedotfun @cookiedotfuncn @JoinSapien
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Notificación
Si alguien te elogia, tal vez no seas muy excepcional, pero él debe ser muy excepcional; si alguien se burla de ti, no necesariamente tienes un problema, pero él debe tener algún defecto.
giro brusco de 90 grados
A continuación, se interpreta la relación entre el cumplimiento técnico y la inteligencia humana, basada en los requisitos fundamentales de la Ley de Inteligencia Artificial de la UE y los casos prácticos de Sapien, centrándose en historias reales y soluciones:
🌍 Uno, la "línea base humanista" del proyecto de ley: cuando la IA debe aprender a respetar a los humanos
La disposición más dura de la "Ley de Inteligencia Artificial" de la Unión Europea no es la precisión del algoritmo, sino que "los humanos deben estar siempre presentes" —
Supervisión humana obligatoria en escenarios de alto riesgo: las decisiones de IA en diagnósticos médicos, evaluaciones de contratación, etc., deben estar equipadas con un botón de intervención humana, los médicos pueden anular con un solo clic el error de diagnóstico de cáncer de la IA.
Prohibición de "manipulación en caja negra": como utilizar la IA para analizar las debilidades de los usuarios y inducir al consumo (la multa de la ley puede alcanzar hasta el 7% de los ingresos anuales globales);
El contenido generado debe estar marcado: las novelas escritas por ChatGPT deben declarar "esto es generado por IA", para evitar hacerse pasar por una creación humana.
"Esto no es una limitación de la tecnología, sino una protección de la humanidad", como dijo un legislador de Bruselas: "El valor de la IA no radica en reemplazar el pensamiento humano, sino en amplificar la bondad humana."
🛠️ Dos, la solución de Sapien: convertir la "supervisión humana" en el sustento de millones de personas comunes.
La legislación de la UE exige supervisión humana de la IA, pero ¿quién supervisa? ¿Cómo se supervisa? Sapien ofrece respuestas a través de las historias de tres tipos de personas:
1. Mamá Li de Yunnan: el guardián del dialecto se convierte en "corrector ético" de IA
La hermana Li fue anotadora de voz en dialecto, y tras la entrada en vigor de la legislación de la UE, su trabajo se le agregó la tarea de "interceptación de sesgos":
Cuando la IA etiquetó erróneamente el término del dialecto de Yunnan "憨包" (tonto) como un término positivo, ella etiquetó manualmente el contexto real: "Este término tiene una connotación insultante, está prohibido";
El AI médico en el que participó en el entrenamiento debe pasar 2000 pruebas de dialectos antes de ser implementado en la Unión Europea. Ella descubrió 3 expresiones discriminatorias y las corrigió.
"Antes pensaba que la IA era inalcanzable, ¡ahora la ley de la UE dice que no puede ejercer sin nuestra firma!" — La firma del ticket de trabajo de la hermana Li se ha convertido en un eslabón en la cadena de cumplimiento de la IA.
2. Ingeniero de Berlín, Mark: el "guardián" contra los sesgos de la IA
Mark es responsable de revisar la IA de contratación en la plataforma Sapien:
Descubrió que un algoritmo asociaba automáticamente avatares femeninos con "enfermeras", lo que activó de inmediato un protocolo de corrección: añadir datos de entrenamiento de imágenes de cuidadores masculinos;
Según los requisitos de la ley, debe presentar el "Registro de Supervisión Humana" para demostrar que cada intervención cumple con el "principio de no discriminación".
3. Joseph, un joven de Kenia: protegiendo la fauna salvaje con etiquetas
La ruta de migración de animales marcada por Joseph, originalmente utilizada para el sistema de inteligencia artificial contra la caza furtiva. Después de que la ley entró en vigor, añadió una nueva tarea:
Ejemplo de falso positivo de IA: como confundir el movimiento de la hierba con cazadores furtivos, para evitar que los guardabosques corran en vano;
Instrucciones clave de verificación manual: Antes de que la IA emita la orden "disparar dardo anestésico", se requiere que Joseph confirme las coordenadas por segunda vez.
⚖️ Tres, las oportunidades ocultas de la ley: las personas comunes se convirtieron en "co-creadores de reglas" en el mundo de la IA.
La legislación de la UE parece ser restrictiva, pero en realidad convierte la experiencia humana en activos cumplidores:
Datos de cumplimiento de precios dinámicos: la etiquetación de idiomas minoritarios como el tibetano, debido a la escasez de demanda por "anti-discriminación", ha aumentado en un 50%.
Intervención humana en el registro de la cadena de bloques: el médico anula el diagnóstico de IA y lo registra en la cadena, convirtiéndose en una evidencia clave para la auditoría de cumplimiento del hospital.
"Sistema de Certificación de Habilidades Humanas": los etiquetadores que aprueben el examen ético de la UE pueden obtener la certificación para el comercio transfronterizo.
"La ley convierte la IA de un juguete de las empresas tecnológicas en una herramienta de construcción colectiva para todos."
——Un auditor de ética de IA de Madrid descubrió que el 30% de los etiquetadores en España proviene de las regiones del sur con alta tasa de desempleo.
🌱 Conclusión: Cuanto más fría es la tecnología, más necesita la calidez de la humanidad.
En Sarajevo, un sobreviviente de la guerra etiqueta imágenes de los escombros de explosiones a través de Sapien.
Ella insistió en marcar junto a los escombros: "Aquí solía haber un columpio para niños"; la IA solo ve muros en ruinas, mientras que ella ve la vida que ha desaparecido.
La "supervisión humana" exigida por la legislación de la UE es, en esencia, dejar espacio para la memoria, la dignidad y la esperanza en la tecnología.
Cuando la IA global corre desenfrenadamente, el significado de que la Unión Europea pise el freno es:
"No todo valor puede ser cuantificado por algoritmos, pero cada percepción humana merece ser codificada."
Comité del Partido del Pueblo de la Aldea de Shenzi Chen
#CookieDotFun # sapien #playsapien # SNAPS @cookiedotfun @cookiedotfuncn
@JoinSapien