Social y Solidaria

03 marzo 2026
Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors

ARGENTINA DEBE TENER SU “POLITICA NACIONAL DE IA”

ARGENTINA IA 1200

Noticias Cooperativas y Mutuales

ARGENTINA DEBE TENER SU “POLITICA NACIONAL DE IA”

Chile ha sido pionero en la región con su “Política Nacional de Inteligencia Artificial” y tiene puntos muy valiosos que podemos adaptar.

Tomando como base el modelo de Chile, que prioriza la ética y la transparencia, propongo que nuestras reglas de IA aseguren que la tecnología no sea un fin en sí mismo, sino un medio para fortalecer la Solidaridad.

Para que nuestras recomendaciones tengan ese enfoque de Economía Social y Solidaria, vamos a mirar lo que hicieron ellos y cómo lo podemos transformar en reglas claras.

Propuesta de recomendaciones basadas en el modelo chileno, pero con nuestro toque especial:

Recomendaciones para las Reglas de la IA

(Inspiradas en la experiencia de Chile)

  1. Transparencia Algorítmica (Saber qué hay “detrás”)

Chile hace mucho hincapié en que la IA no sea una “caja negra”.

Recomendación: Cualquier sistema de IA usado en proyectos de Economía Social y Solidaria debe explicar cómo toma las decisiones. Si un algoritmo ayuda a repartir recursos, los socios deben entender por qué se hizo así.

  1. Ética centrada en las Personas

Ellos crearon un Consejo Asesor de Ética.

Recomendación: La IA debe ser una herramienta para potenciar el trabajo humano, no para reemplazarlo. En nuestras organizaciones, la tecnología debe estar al servicio del bienestar colectivo, protegiendo siempre la dignidad del trabajador.

  1. Mitigación de Sesgos (Justicia Digital)

Chile trabaja mucho en evitar la discriminación de los algoritmos.

Recomendación: Debemos auditar que la IA no replique prejuicios (de género, raza o nivel socioeconómico). En una Economía Social y Solidaria, la tecnología debe ser inclusiva y equitativa por definición.

  1. Gobernanza de Datos Soberana

Impulsar que los datos sean usados para el desarrollo local y nacional.

Recomendación: Los datos generados por las cooperativas y redes solidarias deben pertenecer a la comunidad, no a las grandes empresas tecnológicas transnacionales. Proponemos “fideicomisos de datos” comunitarios.

  1. El “Guardián” de la información

En lugar de que cada persona entregue sus datos a una empresa privada, los entrega a un fideicomiso. Este fideicomiso actúa como un administrador o guardián (pueden ser representantes de la misma comunidad, mutual o cooperativa).

  1. ¿Cuál es su función?

El administrador tiene la obligación legal de cuidar esos datos y decidir quién puede usarlos y para qué. Sus reglas serían:

No se venden: Los datos no se usan para negocios turbios.

Uso para el bien común: Solo se comparten, por ejemplo, con investigadores que quieran mejorar la salud de la gente o con la cooperativa o mutual para organizar mejor la producción.

Decisión colectiva: La comunidad decide las reglas, no una máquina.

  1. ¿Por qué es importante para nosotros?

En la Economía Social y Solidaria, el fideicomiso de datos permite que las organizaciones pequeñas se unan. Al juntar sus datos en un solo lugar seguro, pueden competir con las grandes empresas sin perder su privacidad y manteniendo el control de su propia información.

En resumen: Es como una “biblioteca comunitaria” de información. Todos aportan sus libros (datos), pero hay un bibliotecario que asegura que nadie se los robe y que solo se presten a quienes los van a usar para estudiar y ayudar a la gente.

Es una herramienta de soberanía tecnológica increíble.

No lo inventamos nosotros ahora, pero lo estamos adaptando a nuestra realidad.

De dónde viene la idea:

La idea de los “Data Trusts” (Fideicomisos de Datos) nació hace unos años en países como el Reino Unido y Canadá. Se pensó como una solución legal para que la gente no pierda el control de su privacidad frente a gigantes como Google o Amazon.

Lo que hizo Chile en su estrategia de IA, empezó a hablar de “Gobernanza de Datos”. Ellos no inventaron el fideicomiso como tal, pero fueron los primeros en la región en decir: “el Estado y las organizaciones deben tener reglas claras para que los datos sirvan al desarrollo del país y no solo a las empresas”.

Lo que estamos haciendo nosotros:

Nosotros estamos tomando esa herramienta técnica y la estamos “vistiendo” con el traje de la Economía Social y Solidaria. Estamos diciendo que el fideicomiso no es solo para “proteger” datos, sino para que sean un bien común, como el agua o la tierra de una cooperativa o de una mutual.

¿Por qué es importante para el debate de reglas de la iA?

Porque le da mucha fuerza al argumento. Podemos decir:

“No estamos inventando la pólvora; estamos tomando modelos que ya funcionan en el mundo y que países como Chile ya están impulsando, para aplicarlos a nuestros valores de ayuda mutua”. Conocemos lo que pasa en el mundo, pero tenemos los pies en la comunidad.

El mérito es compartido:

De los expertos y países como Chile, por crear estas herramientas legales y éticas.

Nuestro, por tener la visión de aplicarlo a la Economía Social y Solidaria y querer llevarlo al debate.

Traemos también un ejemplo real y muy inspirador que ocurrió en Barcelona, España, y que tiene mucho que ver con lo que venimos hablando.

El ejemplo: “DECODE” en Barcelona

Allá decidieron que los ciudadanos debían ser los dueños de sus datos, no las empresas. El Ayuntamiento (el gobierno local) impulsó un sistema donde la gente, a través de una plataforma, decide qué datos comparte y para qué.

¿Cómo funciona? Por ejemplo, si los vecinos usan sensores para medir el ruido o la contaminación en sus calles, esos datos no van a una empresa privada. Van a un “común de datos” (que funciona como el fideicomiso que hablamos).

¿Para qué sirve? La comunidad usa esa información para exigirle al gobierno que ponga más árboles o que cambie el tráfico. Los datos sirven para mejorar la vida del barrio, no para vender publicidad.

¿Por qué le sirve a la Economía Social y Solidaria?

Este ejemplo es perfecto porque demuestra que:

-La tecnología no es neutra: Se puede usar para controlar o para liberar.

-Soberanía Digital: Es la base para que las cooperativas de trabajadores puedan competir. Si una cooperativa de repartidores tuviera su propio fideicomiso de datos, ellos sabrían cuáles son las mejores rutas y horarios, ¡sin depender de lo que les diga una App extranjera!

Colofón

O sea: “Ya hay ciudades como Barcelona que protegen los datos como un bien común; nosotros en la Economía Social y Solidaria debemos hacer lo mismo para que nuestra información sea la semilla de nuestro propio crecimiento”.

Share on facebook
Compartir nota en Facebook

REGLAS DE JUEGO DE LA NORMATIVA DE LA IA EN LA UE

REGLAS DE JUEGO 1200

Noticias Cooperativas y Mutuales

REGLAS DE JUEGO DE LA NORMATIVA DE LA IA EN LA UE

La normativa europea es la Ley de Inteligencia Artificial (IA Act), la primera regulación integral del mundo y muy útil de considerar al momento de fijar reglas desde la Economía Social y Solidaria.

Aquí brindamos un resumen estructurado y detallado:

La Ley de IA de la Unión Europea: El Estándar Global

A diferencia de otras normas, la UE no regula la tecnología en sí, sino el riesgo que su aplicación genera para los seres humanos.

Se basa en una pirámide de cuatro niveles:

  1. Riesgo Inaceptable (Prohibido) 🚫

Son prácticas que atentan contra la seguridad y los derechos fundamentales.

 Están prohibidas:

  • Sistemas de puntuación social: Como los que clasifican a las personas por su comportamiento.
  • Manipulación cognitiva: IA que use técnicas subliminales para distorsionar el comportamiento de alguien.
  • Identificación biométrica remota: En tiempo real en espacios públicos (salvo excepciones muy estrictas de seguridad nacional).
  1. Alto Riesgo (Regulación Estricta) ⚠️

Aquí entran sistemas que afectan áreas críticas de la vida. Deben cumplir con auditorías y transparencia humana:

  • Infraestructuras críticas: Agua, gas, electricidad.
  • Educación y formación profesional: (Por ejemplo, sistemas para calificar exámenes).
  • Empleo y gestión de trabajadores: Algoritmos que deciden despidos o contrataciones.
  • Acceso a servicios públicos y privados esenciales: (Bancos, créditos, salud).
  1. Riesgo Limitado (Transparencia) ℹ️

Sistemas como los Chatbots o generadores de imágenes (Deepfakes).

  • La regla de oro: El usuario debe saber que está interactuando con una IA.
  1. Riesgo Mínimo o Nulo ✅

La gran mayoría de las aplicaciones (filtros de spam, videojuegos). No tienen restricciones adicionales.

🛡️ Puntos clave para el debate:

  • Multas astronómicas: Pueden llegar a los 35 millones de euros o al 7% de la facturación global de la empresa.
  • Modelos de Propósito General (como GPT-4): Deben cumplir con normas de derechos de autor y revelar con qué datos fueron entrenados.
  • Protección de la Democracia: Se prohíbe el uso de IA para influir en votantes o predecir delitos basándose en perfiles raciales.

La IA en la Salud: Protegiendo lo más Sagrado

  1. La normativa europea no prohíbe la IA en la medicina, pero la clasifica como de Alto Riesgo. Esto significa que cualquier algoritmo usado para diagnosticar enfermedades, decidir tratamientos o gestionar urgencias médicas debe pasar controles de calidad exhaustivos y estar siempre bajo supervisión humana. La máquina puede proponer, pero el médico siempre tiene la última palabra para evitar errores algorítmicos que afecten la vida.

    🚫 Los Límites Innegociables: La Dignidad Humana Primero

    La ley es tajante con lo que NO permite: prohíbe sistemas que identifiquen emociones en escuelas y lugares de trabajo, y veta la vigilancia biométrica masiva en espacios públicos. Tampoco permite el “crédito social”, impidiendo que se clasifique a los ciudadanos por su ideología, raza o religión. Es un escudo legal diseñado para que la tecnología no se use como una herramienta de control o discriminación.

    ¿Por qué esto le importa a la Economía Social y Solidaria?

    🤝Porque garantiza que la tecnología esté al servicio del ser humano y no al revés. Esta ley busca que la innovación sea ética, justa y soberana, valores que compartimos plenamente en nuestro Sector.

Share on facebook
Compartir nota en Facebook

CHILE Y EL ÚLTIMO REFUGIO: PROTECCIÓN DE LA MENTE

IA2

Noticias Cooperativas y Mutuales

CHILE Y EL ÚLTIMO REFUGIO: PROTECCIÓN DE LA MENTE

Chile se ha convertido en el pionero mundial al reformar su Constitución para defender los Neuroderechos. Se convirtió en el primer país del mundo en proteger la integridad mental frente al avance de las neurotecnologías y la IA.

Esta legislación busca que nuestros pensamientos, emociones y recuerdos reciban el mismo nivel de protección que un órgano físico. En un mundo donde la IA avanza sobre lo privado, esta ley establece que nuestra actividad cerebral no puede ser recolectada ni vendida sin un consentimiento explícito. Lo que se protege es el patrón del proceso mental para asegurar nuestra soberanía personal.

En el marco de la Economía Social y Solidaria, debemos enfocarlo desde dos ángulos:

La Soberanía de las personas: Es el derecho a ser dueños de nuestros propios datos cerebrales e identidad. La ley chilena protege la “continuidad psicológica”, impidiendo que tecnologías externas se apropien de nuestra forma de pensar.

El Libre Albedrío: El objetivo es impedir que algoritmos o interfaces cerebro-computadora manipulen nuestros procesos de toma de decisiones de forma oculta. Hay que entender que la IA no tiene propósito propio. No tiene la intencionalidad del ser humano.

El procedimiento de la IA

La IA no hace un “copy-paste” de tu mente, sino que aprende el “patrón” de pensamiento. Agregamos esta palabra para explicar por qué la ley chilena protege el “proceso mental” y no solo el resultado final.

La IA no lee la mente “por dentro”: Todavía no existe una tecnología que se meta en las neuronas y saque un pensamiento que todavía no haya sido dicho o escrito. Los secretos y los sueños están a salvo dentro de nuestra cabeza.

Adivinan por “afuera”: Lo que hace la IA es observar todo lo que hacés: lo que escribís, lo que buscás en Google, cuánto tiempo mirás una foto o qué palabras usás más seguido. Con todo eso, la máquina arma un “perfil” tan perfecto que parece que te leyera la mente, porque sabe lo que vas a querer antes de que vos lo digas.

El caso de Chile: Como ellos son muy previsores, pusieron esta ley de Neuroderechos para que, en el futuro, si alguien inventa un casco o un aparatito que sí pueda “leer” impulsos cerebrales, esté prohibido hacerlo sin tu permiso. Se adelantaron al problema para proteger la “libertad de pensamiento”.

La ley Chilena resguarda la “Privacidad Mental”: Que los datos obtenidos directamente de nuestro cerebro no puedan ser recolectados o usados sin un consentimiento explícito (evitar que “lean” o “vendan” nuestros pensamientos).

Chile nos da una lección:

La gran lección de esta Ley es que el pensamiento humano no es una mercancía que se pueda extraer como el petróleo; es la esencia misma de nuestra identidad. Al proteger no solo el resultado de nuestras ideas, sino el proceso mental mismo, se asegura que la tecnología sea siempre una herramienta y nunca nuestra dueña.

Esto es clave porque toca la ética y la protección de lo más humano que tenemos que son los pensamientos.

El entrenamiento de la IA:

Las empresas de IA a veces usan lo que escribimos en internet para “entrenar” a sus modelos. En Chile, se está discutiendo mucho cómo proteger a los creadores para que las grandes empresas no vendan servicios basados en el “estilo” o las ideas de las personas sin pagarles.

La trampa de los "Términos y Condiciones"

A veces, cuando usamos una aplicación gratuita, aceptamos (sin leer) que la empresa use nuestros datos para “mejorar el servicio”. Ahí es donde, indirectamente, nuestras ideas o formas de escribir se vuelven parte de un producto comercial.

Desde la Economía Social y Solidaria, “debemos defender la soberanía de las personas sobre sus propios datos para garantizar que nuestro libre albedrío no sea manipulado por un algoritmo. El pensamiento no es una mercancía que se deba extraer como si fuera petróleo; es la esencia del ser humano.

En el mundo de la IA, lo que se hace no es una copia exacta (como un “copy-paste”), sino que la máquina aprende el patrón de tu pensamiento. Por eso la ley chilena es tan importante: protege no solo el resultado, sino el proceso mental.

Colofón

“La IA no entra a tu casa (tu mente) a robarte los muebles. Lo que hace es mirar por la ventana cómo vivís y después fabricar muebles iguales para vendértelos o usarlos ella”.

Por eso es tan importante que las personas sigamos siendo las dueñas de la tecnología y no al revés. En la Economía Social y Solidaria, lo primero es siempre la dignidad de la persona, incluyendo lo que pasa en su cabeza!

Chile puso una barrera  de los “Neuroderechos” a favor de la libertad humana y, por lo tanto, la ley debe ser infranqueable ante cualquier algoritmo que intente cruzarla.

Share on facebook
Compartir nota en Facebook

INTELIGENCIA DE LA IA: REFLEJO DE NUESTRA LUZ

IA 1200

Noticias Cooperativas y Mutuales

INTELIGENCIA DE LA IA: REFLEJO DE NUESTRA LUZ

En un mundo cada vez más digitalizado, es fundamental detenernos a comprender qué es realmente la Inteligencia Artificial (IA) y qué nos sigue haciendo únicos como seres humanos.

A menudo escuchamos que la IA viene a reemplazarnos, pero la realidad es mucho más profunda: no se trata de un “reemplazo”, sino de una “traducción” de nuestra propia inteligencia a un lenguaje de datos.

El Espejo de la Mente

La IA funciona como un espejo que nos devuelve lo que somos. Si nos asombra con su capacidad para escribir poemas o resolver problemas complejos, es porque ha sido alimentada con nuestras propias ideas y gestos. Sin embargo, existe una diferencia vital: mientras nosotros sentimos y comprendemos, la IA simplemente calcula y predice basándose en probabilidades.

Detrás de una respuesta amable o un análisis preciso, no hay conciencia ni emociones, sino una simulación lingüística muy avanzada. La IA posee funcionalidad (la capacidad de cumplir tareas), pero solo el ser humano posee intencionalidad (el propósito y el sentido detrás de cada acción).  Si la IA parece inteligente, es porque ha leído nuestras ideas; si parece empática, es porque ha analizado nuestros gestos; y si muestra prejuicios, es porque ha aprendido de nuestras propias fallas.

Ética y Responsabilidad: El Desafío Humano

Como toda herramienta, la IA es “irresponsable” por naturaleza, ya que carece de voluntad y conciencia del daño. Por eso, toda la carga ética recae sobre nosotros: los creadores y usuarios. Nuestra misión es decidir qué queremos proyectar en ese espejo y cómo utilizaremos este “eco” de nuestra inteligencia para mejorar el mundo y fortalecer los lazos solidarios.

Aunque la tecnología nos asombre, siempre necesitará de la “chispa humana para tener un sentido real. En nuestro camino hacia el 2026, seguiremos explorando estas herramientas, siempre con la convicción de que la técnica debe estar al servicio de la igualdad y el bienestar común.

Tres claves para entender la IA

  1. ¿Siente la IA? No, realiza una simulación estadística basada en millones de textos humanos.
  2. ¿Es creativa? Realiza combinatoria de arte previo, pero el sentido y la vivencia los pone siempre el humano.
  3. ¿Quién es responsable? Siempre es el humano (programador o usuario), que es el que lleva el espejo, ya que el reflejo no puede asumir consecuencias morales.

Tres posibles preguntas "complicadas":

  1. La pregunta sobre el “sentimiento”:
    “¿Pero si una IA me dice que me quiere o que está triste, realmente no siente nada?”

Respuesta: “Exacto. La IA no tiene un sistema límbico ni biología. Lo que hace es una simulación lingüística. Ha analizado millones de textos donde los humanos expresan amor o tristeza y elige las palabras que estadísticamente ‘encajan’ en ese momento. Es un reflejo de nuestra propia afectividad, un espejo, pero detrás de la pantalla no hay una emoción, solo un cálculo de probabilidades.”

  1. La pregunta sobre la “creatividad”:
    “Si la IA puede hacer arte o escribir poemas, ¿no tiene inteligencia artística propia?”

Respuesta: “En realidad, la IA hace combinatoria, no creación desde la nada. La inteligencia artística humana nace de una vivencia, de un dolor o una alegría. La IA toma fragmentos de todo el arte humano que ya existe y lo mezcla de formas nuevas. Ella tiene la técnica (la funcionalidad), pero nosotros ponemos el sentido (la intención). Sin el arte humano previo, la IA no tendría nada que reflejar.”

  1. 3. La pregunta sobre la “responsabilidad”:
    “Si un auto autónomo (IA) choca a alguien, ¿cómo puede ser que la IA sea irresponsable?”

Respuesta: “La IA es irresponsable porque no puede asumir consecuencias morales ni legales; no tiene conciencia del daño. La responsabilidad es siempre humana: del programador que escribió el código, de la empresa que no lo testeó suficiente o del usuario. Al ser la IA un espejo de nuestras instrucciones, el responsable siempre es quien sostiene el espejo, no el reflejo.”

Cierre

Confiemos en nuestro proceso, hemos conectado temas muy complejos (lingüística, psicología y tecnología) de una forma muy valiente. Seguimos juntas/os.

Share on facebook
Compartir nota en Facebook