top of page

¿Prompting a ciegas? Aprender prompting sin entender el funcionamiento de la AI es como conducir sin conocer las reglas de tráfico



Ya hace unos 3 años que la IA ha dejado de ser un campo exclusivo de investigadores o grandes corporaciones tecnológicas para convertirse en una herramienta accesible para todo tipo de usuarios. Esto incluye el uso de modelos de lenguaje como GPT y otros algoritmos que permiten la generación automática de texto. Ahora bien, desde el inicio de la democratización de la inteligencia artificial (IA) se ha desarrollado en torno a ella un fenómeno social en especial en ciertos sectores no técnicos: el aprendizaje del prompting. Este fenómeno que promete facilitar el trabajo de muchas personas y aumentar la productividad empresarial, plantea también riesgos en su utilización si no se comprende realmente su funcionamiento e implicaciones.


La búsqueda de la productividad empresarial centrada en el aprendizaje de nuevas metodologías, sistemas o herramientas exclusivamente teniendo como fin el rendimiento económico directo, puede hacernos desatender en ocasiones otros aspectos igualmente relevantes, como es la seguridad de la información y, la prevención de sanciones al respecto.


Un riesgo de especial relevancia en el sector legal en el que se ha generalizado el aprendizaje del prompting, sin la formación técnica adecuada paralelamente y, en el que se trata información especialmente sensible para sus clientes. 


¿Qué es realmente el prompting?


En los últimos años hemos escuchado esta palabra en multitud de ocasiones. Pero ¿Realmente sabemos qué es el prompting?


El prompting es el proceso de instruir a un modelo de IA para generar respuestas o resultados específicos a partir de un texto o una pregunta. A primera vista, aprender prompting parece sencillo, como si sólo fuera cuestión de afinar la manera en la que formulamos nuestras instrucciones.


La falsa sensación de control


Muchos usuarios que aprenden prompting asumen que, al mejorar la precisión de sus instrucciones, también aumentan su control sobre el comportamiento de la IA, lo que en realidad es un error sino se atienden paralelamente otros factores.


Aunque las técnicas de lenguaje natural siguen mejorando los sistemas de IA, por el momento, los algoritmos de IA no interpretan el lenguaje como lo haría una persona; pues se basan en patrones estadísticos entrenados a partir de enormes cantidades de datos. Por ello, sin una comprensión del funcionamiento interno del algoritmo, de sus sesgos y limitaciones, el usuario puede estar generando respuestas que refuercen estereotipos o que simplemente no se ajusten a la realidad.


¿Qué tiene que ver esto con el prompting?


El prompting, si bien es una técnica aparentemente inofensiva, tiene el potencial de comprometer seriamente la privacidad si no se aborda con una perspectiva crítica. Los perfiles de profesiones no tecnológicas suelen ver a los algoritmos como “herramientas” que solucionan problemas de forma automática, pero sin conocer realmente la programación, los procesos de entrenamiento y los ajustes que implican; lo que se agrava por el hecho de que muchas plataformas tecnológicas no explican el funcionamiento de sus algoritmos de manera clara y accesible.


La falta de comprensión global de cómo funciona la IA puede dejar a los usuarios vulnerables ante esta tecnología y conducir a una pérdida de control sobre sus datos, sus decisiones y su privacidad. Por tanto, aprender prompting exige no sólo conocer la técnica de producción de instrucciones, sino adquirir un conocimiento profundo del sistema:


1.      ¿Cómo funcionan los algoritmos?


La mayoría de las personas del sector legal no entiende cómo funciona un algoritmo porque, en primer lugar, los algoritmos son abstracciones complejas que operan a un nivel técnico. Su funcionamiento se basa en matemáticas avanzadas y estadísticas. Esto genera un desajuste entre la comprensión que la mayoría de las personas tiene de la tecnología y la complejidad real de los procesos algorítmicos.


Muchos algoritmos, especialmente aquellos utilizados en inteligencia artificial (IA) y aprendizaje automático (machine learning), operan como cajas negras que producen resultados sin que sea evidente cómo llegaron a ellos. Esto significa que, aunque los usuarios pueden observar el resultado que el algoritmo produce, no tienen visibilidad sobre los pasos o procesos internos que conducen a ese resultado. La opacidad se incrementa cuando las empresas que desarrollan estos algoritmos no comparten cómo han sido entrenados ni qué datos se han utilizado. Por ejemplo, los algoritmos de recomendación en redes sociales o plataformas de compras pueden manipular las decisiones de compra o crear burbujas de filtro que limitan el acceso a información diversa.


2.      ¿Cómo se entrenan los modelos?


La gente a menudo confunde un algoritmo con una mera fórmula, cuando en realidad un algoritmo puede ser una serie extremadamente compleja de cálculos, reglas y procesos de toma de decisiones. Esto lleva a una comprensión superficial, donde se cree que los algoritmos son objetivos y neutrales.


Como ya hemos indicado, el comportamiento de la IA está directamente relacionado con los datos en los que fue entrenada, y si esos datos provienen de fuentes no seguras o no verificadas, el modelo puede perpetuar errores y sesgos. Esto se agrava cuando esos datos han sido recolectados sin transparencia o sin conocer sus fuentes. Aunque es cierto, que uno de los aspectos clave del Reglamento de la IA es paliar este desconocimiento, estableciendo obligaciones de recopilación de la información con la que el sistema ha sido entrenado; pero por el momento, siguen existiendo gran falta de transparencia.


3.      ¿Qué datos se emplean y cómo se gestionan?


En este punto, tenemos dos perspectivas que considerar. Por un lado, la mayoría de las personas no sabe qué datos se utilizan para alimentar un algoritmo ni cómo se recolectan. Así, por ejemplo, aplicaciones como las redes sociales, los motores de búsqueda y los asistentes de voz recopilan información personal en segundo plano, que luego se utiliza para crear perfiles detallados y personalizados.


Por otro lado, el riesgo no sólo está en entender cómo ha sido entrenado el modelo, sino en comprender que, además, los datos que introducimos en una IA -especialmente si no sabemos cómo se gestionan o quién tiene acceso a ellos- pueden ser utilizados para entrenar futuros modelos o ser filtrados sin nuestro conocimiento. Situación que puede conllevar a la exposición involuntaria de información sensible, sino tenemos ciertas salvaguardas.



La importancia de la educación en IA


El aprendizaje del funcionamiento de la tecnología debe ir de la mano de un conocimiento profundo de sus implicaciones para mejorar la seguridad digital, algo que también debe aplicarse al uso de IA y al prompting. No basta con aprender a generar buenos prompts. Es imprescindible entender qué sucede con esos datos una vez introducidos en un modelo. ¿Se almacenan? ¿Se reutilizan? ¿Qué políticas de privacidad tiene la plataforma que se está utilizando? Sin estas preguntas fundamentales, los usuarios corren el riesgo de verse envueltos en situaciones donde su información personal quede expuesta, o incluso ser víctimas de ataques cibernéticos.


Aprender a manejar IA sin comprender sus fundamentos y los riesgos asociados es como conducir un coche sin conocer las reglas de tráfico: tarde o temprano, los errores ocurren, y sus consecuencias pueden ser devastadoras.


Si te interesa el mundo del prompting, no te quedes sólo en la superficie. Aprende, investiga y protege tu privacidad.



 

 

 

 

28 visualizaciones0 comentarios

Commentaires


bottom of page