Software

Por qué debemos de ser cautelosos con todas las promesas de la Inteligencia Artificial

Durante estos días hemos estado viendo cómo no paran de salir noticias sobre los avances de la inteligencia artificial. El detonante de todo fue ChatGPT, que sorprendió a muchos con sus resultados creando textos que han sido de utilidad para mucha gente. Tras esto, ha habido mucha expectación sobre los usos de inteligencia artificial predictiva, pero que aquí llamaremos simplemente como Inteligencia Artificial.

Se nos venden como que solucionarán los problemas, y crearán muchas cosas… Pero la realidad es que hay que ser muy cautelosos con todo lo que nos ofrecen y venden. No negamos que vaya a tener su utilidad, pero hay que estar muy informado de las promesas y peligros que tienen.

Para empezar, los ordenadores no son muy inteligentes, y por ello las Inteligencias Artificiales no son inteligentes

Un profesor de desarrollo de aplicaciones multiplataforma hace más de diez años me enseñó que los ordenadores no son listos, sino que son muy tontos pero muy rápidos haciendo las cosas. La informática funciona a base de interruptores binarios a base de 1s y 0s, desde que Ada Lovelace hizo los primeros ejemplos de programas informáticos.

Una calculadora no calcula cuánto son 3+2. Se guarda en memoria el valor del número 3 y la del dos, y hace la operación de suma moviendo interruptores binarios para subir dos números al número 3, y así obtiene la respuesta: el número cinco. Y esto es porque un programa le ha enseñado a sumar números, y eso suponiendo que el programa haya sido programado de forma correcta.

Otra gran forma de explicarlo es cómo lo dijo el miniordenador Galileo de Gretchen Grandler en un episodio de la serie La Banda del Patio:

«Los ordenadores solamente somos tan listos como quienes nos programan.»

Galileo
Captura de pantalla con Galileo en la Banda del Patio de Disney Channel

Bajo esa frase, podemos sintetizar todos los avisos sobre el límite de la inteligencia artificial. Pero tenemos que explicarlo, porque hay muchos matices.

ChatGPT y otras IA de lenguaje interpretativo no son perfectas y no son buscadores

Es posible pensar que, como ChatGPT tiene acceso a miles de documentos y webs para entrenar su lenguaje y conocimiento, tendrá una alta fiabilidad. Pero la realidad, es que, primero, ChatGPT está entrenado con datos de 2021 como muy tarde, y que una inteligencia artificial de lenguaje interpretativo, simplemente usa probabilidades para decir qué palabras siguen a continuación.

Esto hace que de base, ni ChatGPT ni cualquiera de las ideas que usan los gigantes de las búsquedas sean útiles para hacerles preguntas de temas de actualidad. Ponemos de ejemplo este caso de alguien que acaba teniendo que preguntar en Reddit sobre tarifas de móvil porque está usando ChatGPT como un buscador:

Captura de pantalla de Reddit en la que alguien pregunta tras haber usado ChatGPT

Lo que debería de ser una tarea sencilla para un buscador, una inteligencia artificial da respuestas diferentes cada vez que le preguntas. Esto es porque está usando datos anticuados que una Inteligencia Artificial no sabe interpretar de forma real. Este problema tiene fácil solución: buscar un comparador de ofertas, o ir a cada web de las operadoras de España para así comparar condiciones. Pero hacerlo uno mismo no queda tan futurista como que salga un texto que te dé una respuesta en forma de texto humano.

También debemos de tener en cuenta qué se le alimenta, porque una IA, insistimos, no va a crear nada nuevo, sino replicar basándose en la información que se le ha dado. Ya hablamos hace tiempo que el Youtuber PutoMikel dejó claro que Midjourney y otras inteligencias artificiales de recreación de imágenes estaban replicando estereotipos e incluso información errónea. Cuando hace unos meses se mostró un hilo de imágenes en Twitter sobre cómo se verían diferentes épocas de la historia a través de selfies, se notó una considerable escasez de mujeres, dado que ellas pocas veces habían sido protagonistas de la historia debido al machismo inherente de la recreación histórica. Y al mostrar la «época de los vikingos«, Midjourney creó una imagen de hombres con barbas y gafas usando los cascos metálicos con cuernos que nacieron fruto de una caricatura de los años 1930. Estos anacronismos se deben a que a Midjourney muy posiblemente se le había alimentado imágenes de Instagram y Pinterest catalogadas como «vikingo» por parte de gente que desconoce la realidad de los vikingos y lo ven como algo estético, no histórico.

A la hora de recrear ciudades antiguas, otras inteligencias artificiales se centraban en las estéticas europeas y no tenían color. La razón es que se les habían dado principales imágenes de recreaciones de Roma y Grecia que no tenían en cuenta que las estatuas y ciudades estaban llenas de color, el cual se ha erosionado. Estos serían unos errores que muchos historiadores no cometerían, pero las inteligencias artificiales están replicando visiones erróneas, pero que durante mucho tiempo han sido aceptadas y no han sido corregidas antes de usarse como base para imágenes.

Con esto queda claro que una Inteligencia Artificial interpretativa como Midjourney o ChatGPT, no van a ser fieles reflejos de la realidad ni de la historia si no se le da la variedad de conocimientos que se necesitan de ellos. Y que todo lo que nos den, deberá de ser revisado por una persona humana.

La conducción autónoma por inteligencia artificial es ya más fantasía que ciencia

Uno de los usos que más se le espera para la inteligencia artificial es el de la conducción totalmente autónoma. La idea de la conducción automática es que un día se superará a la capacidad de conducción de un humano por cierto porcentaje, y como una Inteligencia Artificial no se distrae ni cansa al volante ni confundiría cosas, llegará el momento en el que cualquier persona podrá coger un coche sin tener que pasar un examen de autoescuela, y podrá ir a cualquier lugar. Se especulaba la idea de que los humanos en carretera llegarían a ser ilegales, salvo casos contados. Hace siete años, el Youtuber CGP Grey llegó a poner como ejemplo que los coches autónomos alimentados con Inteligencia Artificial llegarían y eliminarían el problema del tráfico debido a una gran red neural de coches autónomos podrían coordinarse.

Durante años, empresas como Google, Uber y Tesla han dicho a los inversores que un día todos los coches que estén en circulación serían controlador por IA. Elon Musk lleva desde el año 2014 prediciendo que los coches de Tesla «serán totalmente autónomos el año que viene«.

Múltiples estados de Estados Unidos permitieron que los coches autónomos se desplegaran en las carreteras. Tras años de promesas y millones de dólares gastados en inteligencia artificial para coches autónomos, casi todo el mundo está de acuerdo en que los coches autónomos no funcionan todo lo bien que se esperaba de ellos.

tesla model s

Pero la verdad es que nunca lo hicieron. Tesla está siendo investigada penalmente por el Departamento de Justicia de Estados Unido porque los vídeos que hicieron para promocionar su función de conducción autónoma eran falsos. También anunciaron falsamente que sus coches tenían piloto automático y conducción autónoma completa. Eso inspiró a algunos conductores a quitar las manos del volante, acción que causó muertes. En 2022, al menos 10 personas murieron por los coches autoconducidos de Tesla en solo cuatro meses, razón por la que el gobierno les obligó a retirar 300.000 coches.

Todo esto se debe a que existen imprevistos en las carreteras. Animales, pelotas, niños cruzando, baches, obras… Los humanos somos buenos improvisando, pero no una IA. En el caso de los Tesla, se han reportado casos de que prefiere atropellar un niño antes que desviarse del camino, o que antes de un accidente se desactiva para dejarlo todo en manos del conductor para que la culpa no sea de Tesla por meros tecnicismos legales.

La tecnología de auto-conducción tiene importantes usos en el mundo real, como la prevención de colisiones y el control de crucero mejorado. Pero la idea de que los coches serían nuestros robo-taxis es ya algo de fantasía. Volviendo al vídeo de CGP Grey, dice la Inteligencia Artificial solucionaría problemas de tráfico, pero cada vez más se ve que las soluciones son el transporte público y los vehículos de movilidad personal, dado que muchos coches en los atascos, especialmente los atascos en días laborales entrando y saliendo de ciudades de Madrid o Barcelona, son conducidos llevando a una persona desde o hacia su ciudad dormitorio.

Una inteligencia artificial predictiva no revisa los resultados, un buscador sí

Una de las promesas que se dijo sobre las inteligencias artificiales predictivas, es que podrías preguntarle cualquier cosa y te responde sin entrar en webs de las que recoge la información. Ha habido tal preocupación que Microsoft ha tenido que empezar a pensar en un sistema de publicidad y compensación a autores de contenido. Pero la realidad es que muy seguramente esto de la inteligencia artificial predictiva sea un truco que acabe dejando de ser sorprendente a los pocos meses.

Ya ha habido casos de errores con ChatGPT, la IA que usa Bing AI para su servicio de resultados. Y en la demostración de Google Bard, cometieron errores que no se habrían cometido con una búsqueda de Google, irónicamente. Incluso los propios trabajadores de Google insisten en que es algo que no debería de salir por el bien de la empresa y de los usuarios.

Otro caso popular es cuando preguntaron a Bing cuándo se estrenaba la película Avatar: The Way of Water. Es una pregunta bastante sencilla para un motor de búsqueda. Pero Bing dijo a un usuario que aún no se había estrenado porque todavía era 2022. Cuando el usuario dijo: «No, estoy bastante seguro de que es 2023 porque estoy vivo en este año«, a lo que Bing trató de convencer al usuario de que estaba mintiendo.

Bing de Google

Aquí radica el problema de que los propios buscadores deben de indexar la información y catalogarla como cierta o falsa. Es cierto que hay casos de «dark SEO«, pero son casos muy aislados y centralizados. Hablamos de que la labor de Google y de Bing es indexar información y retirar de la indexación la información errónea. Una IA predictiva puede caer fácilmente en bulos o desinformación, porque la base de alimentación de estas IA es prácticamente todo internet. Y como ya nos hizo ver el personaje de dibujos animados Arthur, la gente puede entrar en internet y esparcir mentiras.

Actualmente estamos en una crisis de desinformación, razón de que hayan tenido que salir portales como Maldita o Newtral. Su trabajo es señalar la información falsa, por muy inofensiva o ridícula que parezca para muchos. Maldita tuvo que sacar una explicación de por qué deben de aclarar lo que para mucha gente es absurdo: hay que tener en cuenta que cada uno sabemos sobre cosas distintas y lo que para unos está muy claro para otros no lo está tanto.

Para nosotros parece algo obvio, por ejemplo, que no puedes plantar una bolsa de dinero y que crezca un árbol de billetes. pero para una inteligencia artificial, se puede encontrar este dato y replicarlo sin siquiera contrastarlo, porque cree que todo lo que le dicen es verdad,

ChatGPT aprende a su manera, y no es el conocimiento global

Cuando una preocupación de los profesores es que los alumnos harían todos sus trabajos de clase, uno de ellos sugirió preguntarle al propio ChatGPT si había escrito algo, como forma de comprobar si un trabajo de clase lo había escrito la Inteligencia Artificial. Y solamente porque le dijo que sí, creyó que era una forma de comprobar su autoría.

Pero cuando al ChatGTP se le preguntó si había escrito un trozo de texto, que claramente no había escrito, dijo que sí. Esto es un aviso de que ninguna Inteligencia Artificial de lenguaje predictivo realmente aprende. Recordamos: solamente junta letras y palabras que cree que tienen sentido juntas. No comprueba sus fuentes ni tiene un historial. En una conversión, puedes convencer a ChatGPT de que «2+2=5«, pero será algo que tendrá contigo en esa sesión.

Muchas cosas que hacen las IA ya se hacían, pero nos lo venden como algo mágico

Hace unos meses, Spotifyde lanzó una IA DJ que creará una emisora de radio personalizada únicamente para ti. Sería emocionante, si no fuese porque es algo que ya existe, y es en lo que se ha basado gran parte del negocio de Spotify, de recomendarte nuevos artistas basados en tus gustos. Eso era el algoritmo, de la misma forma que ya existe una inteligencia artificial que te recomienda vídeos de Youtube, pero lo llamamos «el algoritmo«. Porque a efectos prácticos son iguales: aprenden de ti automáticamente, y te dan un resultado personalizado.

Captura de un resultado de Dall-E

Este es uno de los muchos casos en los que se promete un uso de inteligencia artificial, pero es algo que ya se hacía. Esto es porque poner «inteligencia artificial» queda muy bien en las hojas de ruta a accionistas, porque les das a entender que no te quedas atrás. Y esto es importantísimo en el sector tecnológico. Es igual que hace dos años, cuando los NFT adquirieron una gran popularidad y decenas de webs anunciaban que pensaban implementarlos, aunque fuera algo tan básico como ponerte tu NFT de avatar. Podemos esperar que muchas webs y servicios ofrezcan algo con inteligencia artificial, y que este sea un uso que ya esté, o que sea algo menor. Hay mucha expectación por la inteligencia artificial, tanto que nos pueden prometer cosas que luego no nos van a ser útiles, o que incluso puede ir a peor por la dependencia que se tendrá de ella.

¿Por qué nos impresiona ChatGTP?

Los humanos estamos programados para entender un lenguaje. Por eso tenemos una lengua materna. Si vemos una cadena de palabras que tienen sentido gramatical, naturalmente buscamos y le encontramos significado y naturalmente tendemos a asumir que debe haber una mente como la nuestra detrás de ello, incluso cuando todo lo que estamos mirando es una amalgama de palabras juntado por un loro probabilístico. Como escribieron los investigadores, «la tendencia de los interlocutores humanos a atribuir significado donde no lo hay puede inducir a error a los investigadores y al público para que consideren significativo un texto sintético«.

Y eso hace que los modelos lingüísticos sean peligrosos. Significa que confiamos naturalmente en lo que dicen. Y los daños potenciales son enormes. Los malos actores podrían utilizarlos para generar montañas de desinformación creíble para muchos, y los prejuicios racistas o sexistas en los datos de entrenamiento podrían difundirse ampliamente y reforzarse porque «debe de ser cierto, la IA lo dijo«.

En 2021, Timmer Gebru y sus compañeros de campo escribieron un artículo sobre la ética del udo de Inteligencia Artificial, avisando de peligros que se han empezado a ver. Ella trabajaba en Google como especialista en ética de la IA, y debido a ese artículo acabó despedida porque avisaban de los riesgos éticos que suponen. Y esos riesgos de desinformación masiva ya estarían saliendo a la luz debido a Google Bard, al cual los propios empleados calificaron como un peligro público.

La necesidad de moderar lo que se alimenta a ChatGPT se traduce en trabajo humano y uso sin derechos de contenidos

Una investigación de «Time Magazine» descubrió recientemente que para mantener toda la inmundicia y el fango de Internet en un ChatGPT y DALL-E, OpenAI hace que trabajadores kenianos criben el contenido tóxico identificando qué fragmentos son demasiado violentos, sexualmente explícitos o perturbadores para ser utilizados en los datos de entrenamiento. Estos trabajadores están expuestos a
escenas gráficas de violencia y muerte, agresiones sexuales y abusos sexuales a menores. Y a cambio, se les pagan menos de 2 dólares americanos a la hora. Esto se debe a que todo su modelo de negocio se basa en utilizar el trabajo de literalmente millones de humanos sin pagarles por sus derechos como creadores.

Capitura del movimiento de ArtStation conta el uso de inteligencia artificial

Las llamadas «IA generativas» como ChatGPT y DALL-E pueden producir cualquier tipo de texto o imagen que se desee. Pero sólo lo pueden hacer si se les proporciona una enorme cantidad de datos de entrenamiento de los que copiar. Y esos datos con lo que se les alimentan proceden de humanos. Las empresas de IA podrían alegar que todo esto no es más que uso legítimo y, por tanto, legal, pero los artistas y autores no están de acuerdo, y por eso se han unido para demandarlas.

Por ahora, ha habido regulaciones, generalmente coincidiendo en que deberían de pedir permiso a la gente de la que toman textos e imágenes. También, se ha regulado con que ese contenido no puede tener copyright debido a que no ha habido intervención humana suficiente para generar autoría, lo cual debería de desanimar a mucha gente que quería sacar grandes cantidades de libros o imágenes comerciales mediante Inteligencia Artificial.

La Inteligencia Artificial no es mala, pero no es magia

En ningún caso queremos desesestimar cualquiera de los usos que pueden ser totalmente útiles de las inteligencias artificiales. ChatGPT puede hacer cosas graciosas, ayudar con bloqueos, escribir cartas con contenidos desechables para ahorrar tiempo, modificar elementos de una imagen sin tener que darle más trabajo al artista original… Pero no hay que olvidar que todo lo que hagan, será en el mejor de los casos, un trabajo intermedio que no debería ser para nada un producto final.

Midjourney tiene un amplio potencial para la previsualización de conceptos, y es algo que en audiovisual puede ser extremadamente útil. ChatGPT puede hacer las cartas y comunicados de profesionales que no dominan idiomas más allá del nativo y el inglés. Pero esos usos que son éticos y no dan resultados de mala calidad son contados.

El mejor ejemplo de la limitación de algo como ChatGPT es su resultado en un examen de Derecho den Estados Unidos: aprobaba la parte teórica pero no se sabía expresar de una forma que no fuera básica, llena de frases cortas y con un vocabulario extremadamente reducido, e incapaz de afinar los pequeños detalles e itnerpretaciones. En cómics de ciencia ficción se habla de jueces robot capaces de legislar en los casos más complicados, pero eso es ya más fantasía.

La inteligencia artificial puede quitarnos de muchos trabajos mecánicos repetitivos, o que sirvan para pequeños detalles muy concretos. Pero eso como mucho, ayudará a humanos a hacer mejor su trabajo, no quitárselos.

Mostrar más

Benjamín Rosa

Madrileño cuya andadura editorial empezó en 2009. Me encanta investigar curiosidades que después os traigo a vosotros, lectores, en artículos. Estudié fotografía, habilidad que utilizo para crear fotomontajes humorísticos.

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba
Cerrar

Bloqueador de anuncios detectado

Este sitio se financia mediante el uso de publicidad, miramos en todo momento que la misma no sea demasiado intrusiva para el lector y priorizamos la experiencia del mismo en la web. Pero si bloquea los anuncios, parte de nuestra financiación se verá mermada.