Las seis buenas prácticas de ciberseguridad para usar herramientas de inteligencia artificial

Adoptar medidas preventivas y comprender cómo se usan los datos son pasos fundamentales para aprovechar las oportunidades que brindan los chatbots.

Ciencia & Tecnología19/04/2025

adoptar-medidas-preventivas-y-comprender-como-se-usan-nuestros-datos-son-pasos-fundamentales-para-aprovechar-las-oportunidades-que-brindan-los-chatbots-foto-adobestock-LEJIHZNKVFDIDE34DRMWT5DGEA

La inteligencia artificial ya se consolidó como una de las tecnologías más influyentes de la actualidad. Desde asistentes virtuales y sistemas de recomendación hasta herramientas de automatización, lenguaje generativo, creación de videos e imágenes y análisis predictivo, la IA transformó el trabajo, la comunicación, la manera en que se toman las decisiones y de vivir en sociedad.

Esta revolución, sin embargo, no está exenta de riesgos. El crecimiento exponencial de la IA abrió la puerta a nuevos desafíos en materia de seguridad y privacidad.

A medida que estos sistemas recopilan, procesan y analizan grandes volúmenes de datos, muchos de ellos sensibles o personales, también se amplifican las posibilidades de uso indebido, filtraciones, suplantaciones de identidad y otras amenazas.

Para aprovechar los beneficios de la IA sin poner en riesgo los datos personales ni la confidencialidad, es fundamental adoptar buenas prácticas de ciberseguridad al usar herramientas como chatbots y aplicaciones de lenguaje generativo.

 
1. Configurá las opciones de seguridad y privacidad

Antes de comenzar a utilizar cualquier herramienta de IA, es esencial revisar y ajustar las configuraciones de privacidad. Debés entender qué datos se almacenan, si se comparten con terceros y cómo se utilizan.

Tanbién conviene chequear los términos y políticas de uso para estar al tanto de cambios o nuevas opciones de seguridad que puedan aparecer.

 
2. Evitá compartir datos personales y sensibles

Nunca ingreses información personal, como contraseñas, datos bancarios o información confidencial en chatbots o plataformas de IA. Estas herramientas pueden procesar y almacenar esos datos, que podrían ser usados para entrenar futuros modelos o, en el peor de los casos, filtrarse.

3. Usá contraseñas robustas y autenticación multifactor

Usá contraseñas fuertes y diferentes para cada cuenta vinculada a herramientas de IA. Activá la autenticación de dos factores (2FA) cuando esté disponible. Esto agregará una capa extra de seguridad.

El acceso no autorizado a una cuenta puede exponer historiales de conversación e información sensible, que luego pueden ser explotados para ataques de ingeniería social o para comercializar tus datos.

4. Desactivá el historial de chats cuando sea posible

Algunas plataformas permiten desactivar el almacenamiento del historial de conversaciones. Si buscás mayor privacidad, esta opción es recomendable, ya que reduce el riesgo de exposición en caso de filtraciones.

5. No confíes ciegamente en las respuestas de la IA

Los modelos de IA pueden ofrecer información útil, pero también pueden generar respuestas incorrectas, sesgadas o manipuladas. Es fundamental contrastar la información, sobre todo en temas sensibles como salud, finanzas o legales.

6. Verificá los enlaces y archivos generados por la IA

Las herramientas de IA pueden generar enlaces, archivos o códigos que contengan vulnerabilidades o contenido malicioso, ya sea por manipulación o por fuentes no verificadas.

Antes de hacer clic en un enlace o descargar un archivo, verificá la dirección y analizá el contenido con una solución de seguridad (antivirus) para evitar ataques de phishing o malware.

Con información de TN

Más noticias
Destacadas

Recibí información en tu mail