Desde hace algunos meses (inicios de marzo) tengo en foco a la inteligencia artificial al servicio del periodismo y la creación de contenidos. Me puse como objetivo conocer y descubrir las posibilidades de algunos motores de IA gratuitos como ChatGPT3 o Dall-E (a través de Bing), para luego poder aplicarlo y utilizarlo en clases con estudiantes o en el desarrollo de artículos periodísticos.
Con relación a ese camino de reconocimiento, me imaginé como un explorador solitario de la nueva tecnología. Pero luego supe que estaba muy lejos de esa realidad, y lo comprobé hace algunas semanas en un asado con amigos de diferentes ocupaciones y profesiones. Allí descubrí que casi todos, más allá de la tarea que desempeñen, estaban en etapa de hallazgo y aprovechamiento del CHatGPT.
El abogado había comenzado a utilizarlo para borradores de demandas, el psicólogo para profundizar teorías, el comerciante para definir buenas estrategias de ventas y el diseñador gráfico para lograr bocetos de ideas. Fue sorprendente descubrir la rapidísima adopción que tuvo el avance y el camino de reconocimiento de personas de todas la áreas. Todos de una u otra manera tenían el mismo objetivo que yo.
Para el periodista y en el aula
Aunque aún sigo en etapa de descubrimiento, por ahora mi experiencia con esta tecnología ha sido muy positiva. Es de enorme utilidad para que recolecte información, la amplíe, o ponga foco en algunos recortes indicados. A su vez puede escribir según las precisas indicaciones de un formato o necesidad puntual. Sobre la creación de imágenes, aunque con más limitaciones, la máquina también tiene una poderosa capacidad de creación de motivos para responder a los requerimientos del solicitante.
A su vez hay que decir que en la recolección de información en ocasiones el motor comete errores serios con presentación de datos inventados o inexistentes (y por supuesto sin mencionar fuentes). Lo mismo ocurre con las imágenes creadas: en ese caso las fallas pueden ser más espantosas o terroríficas. Por ejemplo puede ser que aparezcan manos sin uñas, brazos con dos manos u hombres con un solo ojo. Pero al margen de esas debilidades y deformidades, con el debido control y chequeo de parte de los humanos solicitantes, la IA al servicio del periodismo plantea inmensas posibilidades para mejorar o facilitar las tareas.
En el uso en clase con estudiantes de periodismo, la experiencia también fue muy positiva: se adaptaron de manera rápida a la herramienta y su uso se hizo natural de forma veloz.
Al ser consultados sobre la experiencia, la mayoría de los estudiantes coincidieron en la impactante velocidad de la herramienta, aunque aceptaron la dificultad existente para definir las órdenes precisas para que la máquina responda de la manera esperada.
Entre todas las apreciaciones de los alumnos, remarco dos de las respuestas. Una de ellas aceptaba la gran utilidad y facilidad del avance, pero a su vez planteaba dudas frente al por venir: "esperemos estar preparados para todos los cambios que genere". Mientras que la otra opinión presentaba una mirada negativa: "nos esperan tiempos oscuros con máquinas tan poderosas y con capacidad de crear mentiras convincentes".
El comentario, aunque pesimista, estaba en línea con la opinión que plantean muchos pensadores e intelectuales. ¿Qué riesgo y amenaza nos presenta la inteligencia artificial?
Algunas precisiones sobre posibles peligros de la IA
Uno de los intelectuales que se expresó sobre el tema es el historiador Yuval Noah Harari. El escritor y profesor ha dicho que la gran peligrosidad de este avance se basa en que es el primer invento del ser humano que puede llegar a manejarse de manera autónoma. Porque según explica, innumerables máquinas han superado al hombre en capacidad y fuerza. Pero en este caso es diferente porque es la primera vez que el avance puede llegar a adquirir independencia. Y como tiene una capacidad cognitiva mayor a la de cualquier ser humano, puede llegar a desarrollar ideas, mensajes o lenguajes que el ser humano no llegue a comprender, y de esa manera perder el control.
Harari remarca que la IA ya toma muchas decisiones: "En los bancos la decisión de dar o no un préstamo surge del análisis de la IA".
A su vez pone el foco en la conversación política de la sociedad: "La falsificación de seres humanos a través de bots con voces humanas o textos muy sofisticados puede destruir la confianza en las personas entre sí porque nada será creíble", explica.
El intelectual explica que la democracia se basa en la conversación política sobre los temas importantes: "A partir de esos intercambios se intentan tomar decisiones. Con humanos falsos, la conversación será inútil. Porque a la IA nunca lograremos cambiarle la opinión. Porque son máquinas y están al servicio de un objetivo o de alguien con intereses particulares. Pero si poseen la capacidad de persuadir, porque me conocen perfectamente y pueden convencerme, podrán utilizar ese conocimiento sobre seres humanos para influir sobre ellos. Ya pasa con las redes sociales con algoritmos mucho más básicos. Entonces la IA puede socavar la conversación pública por completo", analiza Harari.
Leyes contra la falsificación de seres humanos
El historiador sostiene que es necesario y urgente crear leyes que prevengan estos peligros: "Deben existir normas que impidan falsificar seres humanos, como es ilegal falsificar dinero. Si converso con una IA debo saberlo", explica.
Aunque sus observaciones son alarmantes, Harari finaliza su mirada con un planteo optimista: "No debemos tener miedo a la tecnología y a los cambios que impone. Pero debemos asegurarnos de aprovechar nosotros esas herramientas y que no sea al revés: que sean utilizadas para que nos usen".
Para cerrar vale recordar las llamadas tres leyes de la robótica, planteadas en la década del 40 por el escritor Isaac Asimov en sus populares textos de ficción futuristas. Son las siguientes:
Primera Ley: Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
Segunda Ley: Un robot debe obedecer las órdenes dadas por los seres humanos, excepto cuando estas órdenes entren en conflicto con la Primera Ley.
Tercera Ley: Un robot debe proteger su propia existencia, siempre y cuando esta protección no entre en conflicto con la Primera o la Segunda Ley.
Tal vez más pronto de lo que pensamos, tengamos leyes del estilo para protegernos frente a la Inteligencia Artificial. Estamos atentos.
--
Imagen: mujer asustada frente a sapo desarrollada con el motor de Inteligencia Artificial Dall-E a través de Bing
--