La empresa pausó indefinidamente su plan para habilitar interacciones sexuales o eróticas en ChatGPT, en medio de preocupaciones internas sobre sus posibles efectos sociales, emocionales y reputacionales.
OpenAI pausó de forma indefinida su plan para lanzar un modo erótico o “adult mode” en ChatGPT, una función que habría permitido interacciones sexuales o explícitas con usuarios adultos verificados. De acuerdo con un informe del Financial Times que cita a personas familiarizadas con el asunto. La decisión estuvo acompañada por preocupaciones expresadas dentro de la propia empresa y entre inversionistas sobre el impacto social de una IA sexualizada.
La pausa no solo refleja inquietudes morales o de imagen. La cobertura disponible apunta también a problemas más concretos: el posible apego emocional entre usuarios y chatbot, la falta de evidencia suficiente sobre efectos psicológicos de largo plazo, así como dificultades de moderación y protección de menores. En ese sentido, el proyecto abría una zona especialmente sensible para una empresa que ya opera bajo un nivel de escrutinio público mucho mayor al de otras tecnológicas.
La decisión llega, además, en un momento en que OpenAI parece estar reordenando prioridades. Reuters reportó que la compañía preparaba un recorte de proyectos paralelos para concentrarse más en productos centrales, sobre todo en coding y negocio. Bajo esa lógica, el modo adulto no solo habría sido un experimento controvertido, sino también una línea difícil de defender dentro de una estrategia corporativa enfocada en consolidar su plataforma principal.
Sin afirmarlo de manera concluyente, el freno también puede leerse como una decisión estratégica más amplia. Aunque un chatbot sexualizado podría representar una vía de monetización, también cargaría riesgos adicionales para distribución, cumplimiento y marca. Apple establece que las apps o servicios usados principalmente para contenido pornográfico “no pertenecen” al App Store, mientras Google exige que las apps generativas eviten contenido ofensivo y cumplan con sus políticas sobre contenido inapropiado. En ese contexto, el problema para OpenAI no necesariamente habría sido la falta de rentabilidad, sino la dificultad de integrar ese tipo de rentabilidad con el resto de su negocio.
Por ahora, OpenAI no ha ofrecido una explicación pública detallada más allá de lo reportado por la prensa. Pero el episodio vuelve a mostrar una tensión cada vez más visible en la industria: las empresas de IA exploran funciones que prometen mayor cercanía, intimidad o compañía, pero retroceden cuando esa misma cercanía amenaza con volverse un problema político, regulatorio o comercial.
