Social y Solidaria

02 marzo 2026
Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
REGLAS DE JUEGO 1200

Noticias Cooperativas y Mutuales

REGLAS DE JUEGO DE LA NORMATIVA DE LA IA EN LA UE

La normativa europea es la Ley de Inteligencia Artificial (IA Act), la primera regulación integral del mundo y muy útil de considerar al momento de fijar reglas desde la Economía Social y Solidaria.

Aquí brindamos un resumen estructurado y detallado:

La Ley de IA de la Unión Europea: El Estándar Global

A diferencia de otras normas, la UE no regula la tecnología en sí, sino el riesgo que su aplicación genera para los seres humanos.

Se basa en una pirámide de cuatro niveles:

  1. Riesgo Inaceptable (Prohibido) 🚫

Son prácticas que atentan contra la seguridad y los derechos fundamentales.

 Están prohibidas:

  • Sistemas de puntuación social: Como los que clasifican a las personas por su comportamiento.
  • Manipulación cognitiva: IA que use técnicas subliminales para distorsionar el comportamiento de alguien.
  • Identificación biométrica remota: En tiempo real en espacios públicos (salvo excepciones muy estrictas de seguridad nacional).
  1. Alto Riesgo (Regulación Estricta) ⚠️

Aquí entran sistemas que afectan áreas críticas de la vida. Deben cumplir con auditorías y transparencia humana:

  • Infraestructuras críticas: Agua, gas, electricidad.
  • Educación y formación profesional: (Por ejemplo, sistemas para calificar exámenes).
  • Empleo y gestión de trabajadores: Algoritmos que deciden despidos o contrataciones.
  • Acceso a servicios públicos y privados esenciales: (Bancos, créditos, salud).
  1. Riesgo Limitado (Transparencia) ℹ️

Sistemas como los Chatbots o generadores de imágenes (Deepfakes).

  • La regla de oro: El usuario debe saber que está interactuando con una IA.
  1. Riesgo Mínimo o Nulo ✅

La gran mayoría de las aplicaciones (filtros de spam, videojuegos). No tienen restricciones adicionales.

🛡️ Puntos clave para el debate:

  • Multas astronómicas: Pueden llegar a los 35 millones de euros o al 7% de la facturación global de la empresa.
  • Modelos de Propósito General (como GPT-4): Deben cumplir con normas de derechos de autor y revelar con qué datos fueron entrenados.
  • Protección de la Democracia: Se prohíbe el uso de IA para influir en votantes o predecir delitos basándose en perfiles raciales.

La IA en la Salud: Protegiendo lo más Sagrado

  1. La normativa europea no prohíbe la IA en la medicina, pero la clasifica como de Alto Riesgo. Esto significa que cualquier algoritmo usado para diagnosticar enfermedades, decidir tratamientos o gestionar urgencias médicas debe pasar controles de calidad exhaustivos y estar siempre bajo supervisión humana. La máquina puede proponer, pero el médico siempre tiene la última palabra para evitar errores algorítmicos que afecten la vida.

    🚫 Los Límites Innegociables: La Dignidad Humana Primero

    La ley es tajante con lo que NO permite: prohíbe sistemas que identifiquen emociones en escuelas y lugares de trabajo, y veta la vigilancia biométrica masiva en espacios públicos. Tampoco permite el “crédito social”, impidiendo que se clasifique a los ciudadanos por su ideología, raza o religión. Es un escudo legal diseñado para que la tecnología no se use como una herramienta de control o discriminación.

    ¿Por qué esto le importa a la Economía Social y Solidaria?

    🤝Porque garantiza que la tecnología esté al servicio del ser humano y no al revés. Esta ley busca que la innovación sea ética, justa y soberana, valores que compartimos plenamente en nuestro Sector.

Share on facebook
Compartir nota en Facebook