Por Qué Necesitas un Derecho a Reparar la IA Antes de Que Sea Demasiado Tarde

lalalatvla maquina Leave a Comment

En este mundo la inteligencia artificial (IA) se está convirtiendo en una parte integral de nuestra vida, es crucial tener control sobre cómo se utiliza. Porque la realidad es que muchas personas y organizaciones están rechazando la imposición no solicitada de la IA en sus vidas. ¿Por qué está sucediendo esto y qué podemos hacer?

¿Quiénes Están Afectados?

Desde The New York Times demandando a OpenAI y Microsoft por infracción de derechos de autor en diciembre de 2023, hasta la actriz Scarlett Johansson enviando una carta legal a OpenAI por el uso no autorizado de su voz, la lista de afectados es larga. En marzo de 2024, tres autores presentaron una demanda colectiva en California contra Nvidia por entrenar su plataforma de IA NeMo con sus trabajos protegidos por derechos de autor.

¿Qué Está Pasando?

El problema no es la tecnología en sí, sino la dinámica de poder. La IA se está construyendo sobre nuestros datos, a menudo sin nuestro permiso. No es de extrañar que la confianza pública en la IA esté disminuyendo. Un estudio reciente de Pew Research muestra que más de la mitad de los estadounidenses están más preocupados que emocionados por la IA, un sentimiento compartido por la mayoría de las personas en América Central y del Sur, África y Oriente Medio, según una encuesta del World Risk Poll.

¿Cuándo y Dónde Está Ocurriendo Esto?

La tendencia se ha estado desarrollando a lo largo de 2023 y 2024, casos legales y estudios que han puesto de manifiesto la preocupación pública. Desde Nueva York hasta California, y en todo el mundo, la gente está exigiendo más control sobre cómo se utiliza la IA.

¿Por Qué Necesitamos un Cambio?

La dinámica de poder actual es peligrosa. Las empresas de IA están normalizando un mundo en el que lanzan modelos de IA nuevos y no probados en sistemas del mundo real, con personas comunes como daños colaterales. Esto debe cambiar.

¿Cómo Podemos Lograrlo?

Una solución es el «red teaming», una práctica tomada del ámbito militar y también utilizada en ciberseguridad. En un ejercicio de red teaming, expertos externos intentan «infiltrarse» o romper un sistema para identificar sus vulnerabilidades y corregirlas.

DLA Piper, un bufete de abogados, ya utiliza red teaming para probar si los sistemas de IA cumplen con los marcos legales. Humane Intelligence, una organización sin fines de lucro, construye ejercicios de red teaming con expertos no técnicos, gobiernos y organizaciones de la sociedad civil para probar la IA en busca de discriminación y sesgos. En 2023, realizaron un ejercicio de red teaming con 2,200 personas, apoyado por la Casa Blanca. En 2025, sus eventos de red teaming evaluarán modelos de IA para detectar islamofobia y su capacidad para habilitar el acoso en línea contra mujeres.

¿Qué Podría Ser un Derecho a Reparar para la IA?

Un derecho a reparar para la IA podría permitir a los usuarios ejecutar diagnósticos en una IA, reportar anomalías y ver cuándo se solucionan. Grupos de terceros, como hackers éticos, podrían crear parches o soluciones accesibles para todos. O podrías contratar a una parte independiente acreditada para evaluar y personalizar un sistema de IA para ti.

Dónde estamos y a donde nos dirigimos

2024 fue el año en que el mundo despertó a la omnipresencia y el impacto de la IA. 2025 debe ser el año en que exijamos nuestros derechos. Necesitamos un nuevo derecho a reparar para la IA que nos dé a todos el control sobre cómo se utiliza esta tecnología en nuestras vidas. Es crucial mantener un pensamiento crítico y exigir transparencia y responsabilidad de las grandes tecnológicas.

Autor: X Mae
Fuente: Wired

Tal vez también te interese esta nota: Móviles con IA: ¿Por Qué Tan Pocos Fabricantes Están Invirtiendo | lalala 📺 https://lalalatv.link/fax11

¡Te gustó lo que leíste? 🎉 ¡Suscríbete a nuestro newsletter y recibe lo mejor de lalalatv directo en tu bandeja! Sé el primero en enterarte de lo más nuevo y emocionante. ¡Es fácil y gratis! 😎📬
×

Suscríbete a nuestro boletín.


Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *