IA para docentes: riesgos y desafíos

Luces y sombras de la inteligencia artificial

No todo lo relacionado con la IA es tan estupendo o maravilloso como podría parecer, de hecho existen importantes riesgos y desafíos que debemos conocer y analizar para conseguir un uso responsable, ético y seguro de la Inteligencia Artificial.

En el post anterior de esta serie de Inteligencia Artificial para docentes ya hicimos alguna referencia a los riesgos que supone, o que puede suponer, la IA. Ahora vamos a ver con más detalle cuáles son los principales desafíos que se nos presentan pero también conoceremos los principios éticos que ya existen (y que como ciudadanos debemos exigir) y, algo todavía más esperanzador: la propuesta de una IA para el bien social.

Cuáles son los riesgos de la IA

Son numerosos los riesgos que diferentes investigadores, medios e instituciones identifican en el uso de la IA. Al igual que ocurre con muchas tecnologías no es en sí mismo beneficiosa o maliciosa sino que depende del uso que se le dé.

Geoffrey  Hinton, que fue vicepresidente de ingeniería de Google, Premio Turing 2018, entre otros como el Princesa de Asturias de Investigación Científica (enlazar con el artículo del País), alerta sobre estos riesgos:

  • Generación de noticias falsas y manipulación de imágenes y vídeos hasta el punto de no poder identificar lo que es cierto y lo que no.
  • La eliminación de muchos trabajos tendrá un gran impacto en el empleo. 
  • Aumentará disparidad entre ricos y pobres (según los datos de Oxfam la riqueza está cada vez más polarizada, el 1% de la población posee la mitad de la riqueza mundial, lo que se debe en gran parte al desarrollo tecnológico).
  • Que llegue a diseñarse un sistema más eficiente que el cerebro humano gracias a una potente capacidad de aprendizaje al compartir conocimientos a un nivel que el cerebro humano no puede alcanzar y al acceso a un volumen de datos que nuestro cerebro no puede manejar.
  • Y por último, quizá el mayor problema o el más peligroso según este investigador, que pueda llegar a tener sus propios objetivos o propósitos. A diferencia del ser humano que ha ido evolucionando para asegurar nuestra supervivencia, la IA no ha sido creada con este objetivo pero nada garantiza que no pueda acabar desarrollando su propio propósito que tal vez no nos beneficie. Además del uso que se pueda hacer para favorecer intereses particulares en contra de otros humanos, algo que actualmente ya existe.

Cómo única solución este científico propone que se dediquen tantos esfuerzos a desarrollarla como a hacerla segura, algo que cree que no se está haciendo en este momento.

Además de los riesgos señalados por Hinton también hay que tener en cuenta otros riesgos y dilemas éticos:

  •  ¿Qué pasará cuando algunas decisiones las tomen los algoritmos?, ¿quién será responsable de esas decisiones?, ¿y si los sistemas son hackeados? De por sí la IA tiene sesgos, no es neutral, ni democrática, ni respetuosa de los derechos humanos… no es más que una herramienta que depende de sus programadores y tendrá tantos defectos, o limitaciones como puedan tener estos. ¿IA blanca, nerd y masculina?, no olvidemos que la IA no está al alcance de todo el mundo y que son especialmente las grandes tecnológicas (donde principalmente trabajan hombres asiáticos) las que tienen acceso a los datos y las capacidades de computación que son necesarios para su funcionamiento, la IA que ellos desarrollen reflejará la visión que ellos tienen del mundo.
  • El enorme impacto medioambiental que está teniendo nuestro consumo desaforado de los recursos digitales. Cada vez son necesarios centros de datos más potentes, más grandes, más rápidos, que suponen un gasto enorme de energía e incluso de agua. Algo que todos sabemos que agravará una situación de emergencia climática que no deja de empeorar. Según algunos expertos la industria TIC podría llegar a general entre 5% de las emisiones de CO2. Habrá que plantearse, como señala Nuria Oliver, ¿de qué nos sirve un planeta inteligente pero poco sostenible?
  • Otro aspecto que no se nos oculta pero al que prestamos poca atención es a quién estamos regalando nuestros datos y qué puede hacer con ellos… Cada vez la IA se implementa de forma invisible en muchas de las aplicaciones que utilizamos haciéndolas más útiles, pero a cambio conocen mucho más de nosotros de lo que nos damos cuenta, lo que debería hacer saltar nuestras alarmas. 
  • La gran dependencia de las empresas tecnológicas que estamos desarrollando y el enorme poder que esto les proporciona. Gran parte del mundo accede hoy en día a la información a través de Google, la implementación de la IA en los buscadores puede mejorar los resultados de búsqueda, pero también puede manipular más y mejor la información a la que accedemos y a la que no, ¿qué intereses puede haber detrás de esta gestión de la información?, ¿recibiremos la información que mejor responda a nuestras necesidades, la de más calidad, o la de aquellos que paguen más para ser vistos, o incluso la que convenga a otros intereses más inconfesables?, ¿cómo afectará a la información crítica o incómoda?, ¿quién decidirá lo que podemos o no ver?

Riesgos de la IA en educación

Pero además de los riesgos detectados desde el sector tecnológico y que afectarán a todos los ámbitos, en el educativo también existen aspectos que tendremos que analizar:

  • Aumento de la brecha digital entre alumnos que reciben una formación en competencias digitales y los que no.
  • La brecha de género en las competencias digitales es una de las causas de baja proporción de mujeres entre los profesionales de la inteligencia artificial y exacerba las desigualdades de género por lo que promover la igualdad de género en este campo es imprescindible.
  • Derechos digitales de los alumnos, no podemos olvidar que la IA se alimenta de nuestros datos y no sabemos quién los tiene ni qué uso hará de ellos. Tenemos que ser responsables con el uso que hacemos con los datos de nuestros alumnos y enseñarles a ellos a proteger sus derechos también en el entorno digital.
  • Qué pasa con la propiedad intelectual, hasta el momento cuando utilizamos la IA en un chatbot inteligente la respuesta se apropia de cualquier información a su alcance sin respetar los derechos de autor, puede hacer una canción al estilo y con la voz de…, una imagen imitando la forma de pintar de…, escribir un relato con la técnica… o responder a nuestras consultas. Los grandes modelos de lenguaje en los que se basa la IA generativa se alimentan de enormes cantidad de datos sin permiso de sus propietarios y con frecuencia sin reconocer de dónde se han obtenido.
  • Y quizá el más importante: cómo impactará en la capacidades que necesitamos para aprender: prestar atención, razonar, sintetizar, analizar la información… si confiamos en que parte del trabajo de aprendizaje que hacíamos hasta ahora lo haga la IA y dejamos de entrenar nuestra habilidades. Los efectos en la atención ya se han constatado en la actualidad y empieza a a ser urgente analizar cómo evitarlos.

Es decir, necesitamos reflexionar sobre la competencia digital que necesitan los alumnos para desenvolverse en un mundo con una amplia presencia de la IA con todo el potencial y todos los riesgos que estamos mencionando.

Y sobre nuestra propia competencia digital, ¿cómo vamos a enseñar a nuestros alumnos algo que no conocemos?

El desarrollo  de  la  inteligencia  artificial  debe estar  controlado  por  el  ser  humano  y  centrado  en  las  personas;  que  la implantación  de  la  inteligencia  artificial  debe  estar  al  servicio  de  las personas  para  mejorar  las  capacidades  humanas;  que  la  inteligencia artificial debe concebirse de manera ética, no discriminatoria, equitativa, transparente y verificable; y que el impacto de la inteligencia artificial en las personas y la sociedad debe ser objeto de seguimiento y evaluación a lo largo de las cadenas de valor.

UNESCO, Consenso de Beijing sobre la IA y la Educación (número 7)

Y, ¿qué podemos hacer?

Aunque los propagandistas de la IA (no olvides que mayoritariamente son los propias tecnológicas que desarrollan estos sistemas) solo nos cuentan las ventajas tenemos que desarrollar un punto de vista cultivado y concienciado que nos permita analizar la situación críticamente.

Por ejemplo en el tema del empleo suelen hacer hincapié en que los empleos que se eliminarán son los que se basan en tareas repetitivas, aburridas, peligrosas o que nadie quiere hacer, y que aparecerán otros muchos relacionados con la tecnología. Pero no suelen explicar que esos nuevos empleos todavía por descubrir no irán destinados precisamente a las personas que se verán más afectadas por la desaparición de los suyos.

La realidad es que son muchos los ámbitos que pueden verse en peligro, desde cajeros, taxistas, transportistas… hasta artistas, diseñadores, ilustradores, traductores o periodistas; y también afectará a los profesores. 

A lo mejor no, o no de momento, a los docentes que están en clase con niños o adolescentes pero sí a muchos otros profesores que trabajan en academias o en otras muchas instituciones donde también se imparte formación (por ejemplo en la enseñanza de idiomas hay una gran presencia de programas automatizados).

Y para el resto parece claro que será necesario repensar el rol docente.

La OCDE estima que en España hay un 12% de empleos susceptibles de perderse por la automatización, lo que obviamente supone un gran impacto en nuestro mercado laboral donde el 57% de empleos con más oferta tendrán que ver con la tecnología y la ingeniería.

Como dice Nuria Oliver debemos asumir que si algo lo puede hacer una máquina, lo hará.

Principios éticos para el desarrollo de la IA

Pero estos riesgos no nos deben hacer renunciar al potencial de la inteligencia artificial para resolver problemas o ayudarnos a conseguir mejoras en numerosos ámbitos, el reto está en conseguir desarrollar una Inteligencia Artificial orientada al bien social.

En relación con este tema os recomiendo la charla con Jorge Lobo, Jesús Moreno León y Cristina Aranda (MujeresTech) que organizó el INTEF en un NOOC sobre IA, se nombran numerosos ejemplos sobre cómo la IA puede ser utilizada para mejorar la sociedad y se comentan algunos de sus riesgos así cómo algunas estrategias para abordarlos, que se basan principalmente en el conocimiento.

Lo que parece indiscutible es la sociedad debe estar preparada para adaptarse a esta nueva realidad donde en todos los ámbitos la inteligencia artificial tendrá un papel importante.

La educación tendrá que transformarse para preparar a los alumnos para esta nueva realidad social.

Ante todos estos riesgos también deberemos posicionarnos y adoptar una actitud y un comportamiento ético y responsable porque todos tenemos mucho que perder, como individuos pero también como humanidad, la desaparición de artistas, de periodistas, de ilustradores… supondría un empobrecimiento irrecuperable; el aumento de la crisis climática por la cantidad de agua consumida y de carbono vertido a la atmósfera por los grandes centros de datos cada vez que le pedimos algo a la IA; la manipulación de la información que puede poner en riesgo la democracia…, son riesgos enormes que no podemos ignorar.

Podemos negarnos a hacer determinados usos, como aquellos que sabemos que suponen una apropiación de la propiedad intelectual (ChatGPT no cita sus fuentes, por ejemplo), podemos exigir que se regule de forma ética y responsable: que se exija transparencia sobre los datos que se utilizan para entrenar los modelos y los algoritmos que los manejan; que sea necesario identificar los productos artificiales, sean imágenes, vídeos, arte, textos o noticias; impedir el uso no autorizado de datos personales; garantizar el respeto a la propiedad intelectual… hay muchos especialistas de la ética de la IA que debemos exigir que participen en dicha regulación y que sus conocimientos y propuestas sean tenidos en cuenta (ver por ejemplo la Recomendación sobre la ética de la inteligencia artificial de la UNESCO).

Y, por supuesto, tendremos que informarnos, aprender, adaptarnos, y ofrecer a nuestros alumnos la formación y las herramientas que les permitirán a ellos adaptarse a una sociedad tan cambiante como la que se avecina (sin olvidar que según McKinsey el paro será inferior al 3,5 en profesiones cualificadas frente al 20% en aquellas de baja cualificación).

Te recomiendo la lectura del libro Inteligencia artificial, naturalmente. Un manual de convivencia entre humanos y máquinas para que la tecnología nos beneficie a todos, de la autora que ya hemos comentado: Nuria Oliver , y que puede descargarse gratuitamente desde la página del Ministerio para la Transformación Digital y de la Función Pública, que te ayudará a entender mucho mejor todo lo relacionado con la IA y que ella enfoca siempre hacia el bien social buscando una IA por y para todos. Entre otros muchos temas explica qué principios deberían tenerse en cuenta para conseguir esa IA ética y segura:

  • Justicia, solidaridad y colaboración.
  • Responsabilidad.
  • Transparencia.
  • Beneficiencia y educación contribuyendo al progreso con sostenibilidad y diversidad.
  • No maleficiencia, preservando la privacidad, con seguridad, veracidad, fiabilidad y prudencia.

Lo que se resume en centrar el desarrollo de los sistemas de la IA en y para las personas.

Desarrollar nuestra competencia digital para incorporarla de forma real y eficiente en la educación que ofrecemos a nuestros alumnos se ha convertido en una exigencia ética inapelable.

“La inteligencia artificial puede ser lo mejor o lo peor que nos ha sucedido a la humanidad”.

Stephen Hawking.

Otros post que te pueden interesar:

Foto del autor

Ester Álvarez

Inspectora de Educación GVA. Convencida de que la Inspección es un factor de mejora del sistema educativo y de que la innovación es necesaria para adaptar la escuela a la sociedad del siglo XXI. Co-fundadora de la asociación de Inspectoras e Inspectores para una Nueva Educación, Insnovae. Coordinadora de la Xarxa 2030. Coordinadora del grupo Atlántida de Alicante.

2 comentarios en «IA para docentes: riesgos y desafíos»

Deja un comentario