Tamaño de texto-+=
Compartir:

Los programas para interactuar o conversar con sistemas de Inteligencia Artificial (IA), llamados chatbots conversacionales, como ChatGPT o Google Bard, ofrecen ventajas en el entorno laboral que conviene aprovechar, pero también plantean algunos riesgos que hay que tener cuenta, según los especialistas en IA.

Conversando con un ‘chatbot’ mediante el móvil. Foto: Matheus Bertelli/Pexels.

ChatGPT y Bard son dos de los chatbots más potentes, conocidos y utilizados, pero existen otros sistemas de estas características, total o parcialmente gratuitos, o bien de pago.
Son programas informáticos basados en la Inteligencia Artificial (IA) y accesibles a través de Internet, que permiten mantener una conversación entre un ser humano y una máquina, simulando las respuestas que daría una persona de carne y hueso.

Youchat, ChatSonic, Bloom, Perplexity, Jasperchat, Replika o Chat Bing, son otros exponentes de esta tecnología que desde IEBS Business School definen como unos “sistemas capaces de simular conversaciones humanas con un alto grado de naturalidad y coherencia” o “una especie de cerebro sintético que hace que las máquinas sean capaces de entender, procesar y responder al lenguaje humano” .

Joven usuaria con distintos recursos digitales a su disposición. Foto: Rawpixel/Freepik.

La Inteligencia Artificial (IA) está evolucionando a gran velocidad y la demanda de habilidades para utilizar ChatGPT y otros chatbots de IA, ha crecido enormemente en todo el mundo, según explica a EFE, Diego Dávila, instructor de la plataforma de aprendizaje y enseñanza en línea Udemy y emprendedor.

“Los casos de uso de la también llamada IA conversacional están empezando a surgir y evolucionar, y con el tiempo podremos aprovechar todas sus ventajas, como procesar y generar texto en varios idiomas, producir escritos creativos, usar la traducción automática, redactar y revisar correos electrónicos, resumir textos largos, así como una larga lista de tareas”, según Dávila.

Dávila explica que “la IA ha permitido a los empleados centrarse en tareas más estratégicas y creativas al asumir esta tecnología responsabilidades administrativas y logísticas que antes consumían tiempo y esfuerzo, mejorando la eficiencia y la productividad en el lugar de trabajo”.

RIESGOS DE USO INCORRECTO.

Imagen representativa de un ‘smartphone’ transparente con tecnología IA. Foto: Rawpixel/Freepik.

Sin embargo, este experto (www.udemy.com/user/diego-davila) también advierte que utilizar los chatbots de IA, en el ámbito profesional y laboral, de manera incorrecta o careciendo de la formación necesaria en el manejo de esta tecnología, entraña algunos riesgos que hay que tener en cuenta.

“Es importante recordar que, si bien los chatbots de IA en general pueden ser herramientas poderosas, no pueden reemplazar el juicio humano y la experiencia en muchas situaciones. Siempre es importante aplicar el pensamiento crítico y el juicio ético al utilizarlos en cualquier contexto”, señala.

SEGURIDAD Y PRIVACIDAD.

Composición fotográfica mostrando dos chatbots. Foto: Mojahid Mottakin/ Unsplash

“Compartir información personal o confidencial con un chatbot de IA, puede ser arriesgado. Debemos extremar la precaución al manejar datos sensibles para evitar que se produzca una fuga”, advierte Dávila.

Por ejemplo “ChatGPT es una plataforma pública de código abierto y no se puede garantizar la privacidad de la información compartida en ese ámbito. Por ello es necesario proteger tu privacidad y no compartir detalles como números de tarjetas de crédito, contraseñas u otra información sensible”, recomienda.

Esto significa que “si utilizas ChatGPT para desarrollar contenido para una campaña de marketing, debes asegurarte de no revelar ninguna estrategia confidencial o información sobre productos aún no lanzados al mercado, al interactuar con la IA” explica.

SESGOS EN LAS RESPUESTAS.

Los chatbots de IA pueden mostrar sesgos (orientaciones desproporcionadas en un sentido determinado) basados en los datos con los que fueron entrenados y en la información que el sistema ha recopilado hasta el momento, según Dávila.

Por eso “es importante verificar cualquier información y no confiar en las respuestas de la IA por defecto”, señala.

Un modelo de IA conversacional aprende de una gran cantidad de texto proveniente de internet, “el cual puede contener sesgos culturales, sociales y lingüísticos”, según el instructor de Udemy.

Añade que los sesgos presentes en los datos utilizados para entrenar la IA “pueden influir o reflejarse en las respuestas generadas por los chatbots conversacionales. Por eso, conviene contrastar la información con otras fuentes cuando se realizan búsquedas relacionadas con asuntos culturales y políticos”.

FALTA DE EMPATÍA Y COMPRENSIÓN HUMANA.

Interactuando con un ‘chatbot’ mediante el portátil. Foto: Matheus Bertelli/Pexels.

Un chatbot de IA “no puede comprender plenamente las emociones humanas y los matices culturales. En situaciones delicadas, es preferible que una persona se encargue de los aspectos relacionados con la comunicación para garantizar que los mensajes se transmiten correctamente y con empatía”, según Diego Dávila.

Señala que la IA carece de una brújula ética interna y no tiene la capacidad de comprender los valores morales o evaluar las implicaciones éticas de sus decisiones.
Por ejemplo, “jamás le preguntaría a un chatbot cómo actuar ante situaciones como un cambio de trabajo o de puesto laboral, o para solucionar un problema familiar”, apunta.
Añade que “la IA puede ser muy efectiva en tareas específicas y altamente estructuradas, y en generar contenido basado en datos y tendencias, pero a menudo carece de la capacidad de pensar de manera creativa o empática, o de aplicar un juicio humano basado en la intuición y en la experiencia”.

DEPENDENCIA EXCESIVA.

Si nos volvemos demasiado dependientes de los chatbots de IA y de la automatización en distintos aspectos de nuestra vida, a la larga ello podría afectar la forma en que utilizamos y desarrollamos ciertas habilidades cognitivas, e inducirnos a tomar decisiones basándonos únicamente en las respuestas del chat, advierte Dávila.

“Por ejemplo, si confiamos demasiado en la IA para realizar tareas de memoria o cálculo, es posible que no practiquemos y desarrollemos esas habilidades de manera activa. Y si un profesional se apoya demasiado en la IA para generar contenido o estrategias de marketing, podría perder la capacidad de entender y conectar con su público a un nivel humano”, indica.

Por eso es fundamental “formarse en habilidades en el dominio de la IA, para garantizar la adaptabilidad al mercado laboral y, sobre todo, para fomentar un uso correcto de esta tecnología”, declara Nagi Pérez, responsable de Udemy Business en España.

Asistir a cursos de formación en línea, explorar los estudios e investigaciones académicas y participar en grupos y eventos enfocados en el debate y el intercambio de ideas sobre la IA, son fuentes valiosas para aprender sobre los desafíos éticos, las limitaciones en general y las restricciones técnicas de esta tecnología, concluye Dávila.
Daniel Galilea.
EFE – Reportajes

 

Compartir: