Por Redacción. Esta nota fue elaborada con asistencia de IA
OpenAI anunció cambios en sus modelos de inteligencia artificial para mejorar la detección de crisis emocionales y situaciones de riesgo en usuarios de ChatGPT.
Las nuevas medidas incluyen salvaguardias más estrictas, bloqueos eficaces de contenido sensible y un acceso más ágil a servicios de emergencia y contactos cercanos.
Actualmente, el sistema identifica intenciones suicidas o de autolesión y activa protocolos de protección, como recursos de ayuda, bloqueo de respuestas y posibles denuncias a las autoridades si existe riesgo inminente.
La compañía explicó que reforzará la atención en conversaciones largas y en múltiples sesiones, donde antes las protecciones podían diluirse.
Entre las mejoras destacan el bloqueo de imágenes de autolesión, medidas para evitar respuestas ante riesgos sutiles y la conexión directa con la realidad de la persona.
Además, en Estados Unidos y Europa ya se establecen accesos con un clic a emergencias y se proyecta ampliar esta red globalmente.
OpenAI también planea ofrecer herramientas para contactar a familiares o amigos en situaciones críticas y controles parentales para menores de 18 años, incluyendo designación de contactos de emergencia supervisados.
_____