Jueves, 21 de noviembre de 2024 Suscríbase
Temas
Inteligencia Artificial

ChatGPT refuerza seguridad: Prohibición de repetición para salvaguardar datos personales

Prohibición de repetición en ChatGPT, medida de seguridad tras revelación de datos personales

Revista Alternativa

La popularidad de ChatGPT en el ámbito digital ha sido innegable, proporcionando asistencia para diversas consultas y tareas. Sin embargo, una reciente actualización ha implementado una restricción importante: ahora está prohibido pedirle a ChatGPT que repita la misma palabra de manera indefinida. Esta medida se ha tomado como resultado de una investigación realizada por Google DeepMind, que reveló que tal práctica podría comprometer la seguridad de datos.

El cambio surge como respuesta a descubrimientos alarmantes durante la investigación de Google DeepMind. Se demostró que solicitando repetidamente una palabra a ChatGPT, la inteligencia artificial podía involuntariamente divulgar datos personales reales, como números de teléfono o direcciones de correo electrónico. Esta vulnerabilidad se detectó como una violación potencial de las políticas de uso del servicio de OpenAI, los desarrolladores detrás de ChatGPT.

Temas relacionados

Estas son las predicciones sobre las oportunidades y retos de la Inteligencia Artificial para 2024


Empresaria latina crea con la IA una aplicación que traduce el lenguaje de señas a texto

La actualización busca evitar la explotación de esta vulnerabilidad y prevenir posibles violaciones de privacidad. Ante la revelación de que se podían extraer "varios megabytes de datos de entrenamiento de ChatGPT por 200 dólares", OpenAI ha reforzado sus medidas de seguridad para proteger la información sensible y garantizar un uso ético de la inteligencia artificial. Estos cambios buscan equilibrar la utilidad de ChatGPT con la protección de la privacidad de los usuarios.