OpenAI, la empresa desarrolladora de ChatGPT, hizo cambios en las políticas de uso de su chatbot, y ahora no ofrecerá asesoramiento personalizado que requiera habilitación profesional, como en temas jurídicos, médicos o financieros.
La actualización comenzó a fines octubre y presenta cambios significantes en las políticas de uso respecto a la seguridad de los usuarios y la ética de la IA.
“No permitimos que se utilice la aplicación (…) para interferir con la capacidad de acceder a servicios críticos, incluido cualquier caso de uso para la automatización de decisiones de alto riesgo en áreas sensibles sin revisión humana, es decir, servicios gubernamentales, legales, médicos y esenciales”, dicen los términos de uso.




