Menos solos con la IA este San Valentín: Explorando la compañía virtual

Aunque aún estamos muy lejos de la utopía retratada en la película “Her”, donde un hombre se enamora profundamente de una Inteligencia Artificial, la realidad es que la IA puede ofrecer consuelo y alivio a quienes enfrentan la soledad. A las puertas de San Valentín y celebrando el Día Mundial del Soltero, ESET, compañía líder en ciberseguridad, explora el potencial de la Inteligencia Artificial para aliviar este sentimiento y brindar compañía genuina, sin olvidar sus connotaciones éticas y de ciberseguridad.  

La soledad no deseada es un sentimiento intergeneracional y multifactorial que afecta cada vez a más personas. Incluso ha sido declarado un «problema de salud pública mundial», con investigaciones que muestran que puede dañar la salud de las personas tanto como fumar. De hecho, en España, 1 de cada 4 jóvenes de entre 16 y 29 años se sienten solos y el 75% dice hacerlo desde hace más de un año. Para afrontar esta problemática, no solo debemos detectar, atender y acompañar a quienes ya se sienten solos, sino también prevenir la aparición de este sentimiento en los colectivos más vulnerables. En este sentido, la Inteligencia Artificial podría ser parte de la solución al proporcionar compañía y apoyo emocional a través de chatbots y asistentes virtuales.

“Si bien solemos asociar la Inteligencia Artificial con tareas prácticas y funcionales, su papel puede ir más allá. La compañía mediante chatbots como ChatGPT ofrece un enfoque nuevo y un gran potencial para abordar la necesidad humana de conexión y apoyo. Con su capacidad de aprendizaje puede incluso especializarse en interactuar con quienes sufren problemas de salud mental o de comunicación”, explica Josep Albors, director de investigación y concienciación de ESET España.” Sin embargo, antes de adoptar un compañero de IA, debemos comprender mejor el impacto de las interacciones, los problemas éticos que pueden surgir y las posibles amenazas a la privacidad y la seguridad”.

Afecto Artificial: Riesgos y beneficios

El potencial de la compañía de la inteligencia artificial se sustenta en tres pilares inherentes a la tecnología: está disponible 24 horas al día 7 días a la semana, podemos expresarnos libremente sin el miedo a ser criticados y las experiencias son personalizadas, es decir, las interacciones se adaptan para satisfacer las necesidades individuales de cada usuario. Sin embargo, del mismo modo, encontramos algunos obstáculos que dificultan el desarrollo de este tipo de relación.

Los compañeros de IA pueden simular emociones y empatía, pero carecen de la comprensión emocional genuina y la profundidad que ofrecen las relaciones humanas. Además, esta compañía puede desarrollar cierto sentimiento de dependencia, conducir al aislamiento social y obstaculizar el desarrollo de conexiones humanas significativas. Además, no existe una solución única y cada persona puede responder de forma distinta al mismo mensaje, sobre todo cuando no puede ver el lenguaje corporal de su compañero para indicar el tono o un significado más profundo.

A nivel ético, al compartir datos personales, se debe considerar meticulosamente el consentimiento, la privacidad y el potencial de explotación. A medida que los modelos de IA continúan creciendo, también debe hacerlo la vigilancia para garantizar que la información compartida sea segura y privada.

  • Problemas de privacidad: La compañía de la IA crea un entorno en el que se comparte mucha información personal que normalmente no se confía a un extraño. Sin las medidas de privacidad y protección adecuadas, esta información puede ser objetivo para los ciberdelincuentes. Por ejemplo, si compartimos nuestra fecha de nacimiento o el nombre de nuestra mascota de la infancia, las posibilidades de quien tenga acceso a esos datos puedan adivinar nuestras contraseñas aumentan significativamente.
  • Explotación: A medida que avanza la Inteligencia Artificial, los ciberdelincuentes pueden encontrar oportunidades para aprovecharse de los usuarios de requieren de la compañía de la IA con fines dañinos. Por ejemplo, animando a hacer transferencias bancarias, difundiendo información errónea o dirigiéndonos a personas con intenciones maliciosas.
  • Invasión del espacio personal: Los programas de acompañamiento de IA que utilizan cámaras o micrófonos para interactuar pueden invadir inadvertidamente la intimidad del usuario si no están debidamente protegidos. Si la integridad de estos dispositivos cae en las manos equivocadas, los ciberdelincuentes podrían tener acceso a datos sensibles que podrían derivar en problemas como el chantaje o el robo de identidad.

“A la hora de explorar este nuevo enfoque de la Inteligencia Artificial, es esencial tener en cuenta la información personal que se comparte, tomar suficientes medidas de seguridad para proteger nuestros datos y denunciar cualquier cosa que parezca sospechosa. Conforme la IA continúa integrándose en nuestra vida diaria, todos debemos estar atentos para proteger nuestra seguridad e identidad digital”, concluye Albors.

Comentar

Acerca de las cookies en este sitio

Este sitio web utiliza cookies propias y de terceros para mejorar tu experiencia de usuario y obtener información estadística. Para poder seguir navegando pulsa en "Sí, estoy de acuerdo". Podrás retirar este consentimiento en cualquier momento a través de las funciones de tu navegador. Ver nuestra política de cookies..