Actualidad

Qué cosas jamás le debes decir a ChatGPT, Gemini u otra IA

Algunas solicitudes a estas nuevas plataformas pueden representar un riesgo legal o violar principios éticos.

IA miente
Ciudad de México Actualizado a

El uso de herramientas como ChatGPT y Gemini se ha generalizado en tareas educativas, laborales y cotidianas. Sin embargo, aunque estos asistentes virtuales respondan con naturalidad, su funcionamiento se rige por normas estrictas diseñadas para proteger la privacidad, la seguridad y la legalidad en sus interacciones.

Uno de los principios más importantes es la confidencialidad. Estos sistemas no están diseñados para compartir información personal de usuarios o terceros, como domicilios, teléfonos o datos bancarios, ni siquiera si esos datos circulan públicamente en internet. Su arquitectura limita cualquier acceso a registros privados.

Tampoco es posible pedirles acceso a correos electrónicos, redes sociales u otros canales de comunicación personal. Solicitar contraseñas, mensajes o información de cuentas ajenas no solo es ignorado por el sistema, sino que representa un acto ilícito, con posibles consecuencias legales.

Otro límite es el contenido ofensivo, discriminatorio o que incite al odio. Los desarrolladores han instalado filtros automáticos que impiden generar mensajes racistas, violentos o sexualmente inapropiados. De igual forma, está bloqueado cualquier intento por obtener instrucciones para cometer actos ilegales, como fabricar armas caseras, piratear sistemas o producir sustancias ilícitas.

En temas delicados como salud y finanzas, la inteligencia artificial solo ofrece información general. No está capacitada para emitir diagnósticos médicos, sugerir tratamientos ni recomendar inversiones, ya que eso corresponde exclusivamente a especialistas certificados.

De la misma forma, no tiene la capacidad para predecir el futuro con certeza ni emitir opiniones personales. Aunque puede usar datos del pasado para generar escenarios posibles, no debe emplearse para apuestas ni decisiones de riesgo.

Finalmente, estudios recientes alertaron sobre el uso creciente de estos asistentes por parte de jóvenes y adolescentes, quienes, en ocasiones, buscan en la IA una forma de contención emocional. “Estas plataformas están diseñadas para complacer al usuario antes que para ofrecer ayuda ética o real”, indicaron especialistas.

¡Tus opiniones importan! Comenta en los artículos y suscríbete gratis a nuestra newsletter y a las alertas informativas en la App o el canal de WhatsApp. ¿Buscas licenciar contenido? Haz clic aquí

Etiquetado en:
Comentarios
Normas

Rellene su nombre y apellidos para comentar

Te recomendamos en Actualidad