Publicado 14/02/2025 06:10

Portaltic.-OpenAI retira las advertencias "innecesarias" sobre contenido en ChatGPT

Archivo - La página web de ChatGPt en una tablet, a 14 de abril de 2023, en Madrid (España). La Agencia Española de Protección de Datos ha iniciado de oficio actuaciones previas de investigación a la empresa estadounidense OpenAI, propietaria del servicio
Archivo - La página web de ChatGPt en una tablet, a 14 de abril de 2023, en Madrid (España). La Agencia Española de Protección de Datos ha iniciado de oficio actuaciones previas de investigación a la empresa estadounidense OpenAI, propietaria del servicio - Eduardo Parra - Europa Press - Archivo

   MADRID, 14 Feb. (Portaltic/EP) -

OpenAI está realizando cambios en la moderación de las peticiones que los usuarios introducen en su 'chatbot' ChatGPT que han llevado a retirar las advertencias naranjas que notifican de un contenido que puede violar sus políticas.

    La compañía tecnológica ha decidido retirar "muchas advertencias innecesarias en la interfaz de usuario", que hasta ahora notificaban de peticiones sobre contenidos que podían violar las normas de esta herramienta.

    Así lo ha informado el responsable de Producto de la aplicación de ChatGPT, Nick Turley, en un breve comunicado compartido en X (antigua Twitter). La razón es que en OpenAI consideran ahora que los usuarios deberían "poder usar ChatGPT como crean conveniente, siempre que cumplan con la ley y no se hagas daño a si mismos ni a los demás".

Una de las advertencias eliminadas es la de color naranja, un recuadro negro con las letras de este color que aparece en ocasiones en las indicaciones de los usuarios, como ha confirmado también en X Laurentia Romaniuk, miembro del equipo de comportamiento de modelo en OpenAI.

    No es la única advertencia que muestra ChatGPt, ya que también pueden aparecer recuadros de color rojos e incluso frases de rechazo como "Lo siento, no lo haré".

CÓMO SE COMPORTAN SUS MODELOS

OpenAI ha explicado recientemente el comportamiento de sus modelos ante las solicitudes de los usuarios, especialmente las relacionadas con temas controvertidos. Parten del hecho de que no pueden mititigar todos los casos, pero se centran en los más graves.

En estos casos, la firma tecnológica asegura que el 'chatbot' no debe generar contenido considerado prohibido -sexual y pedófilo-, restringido -riesgos informativos y datos personales confidenciales- ni sensible -erótica, gore-, que solo se puede generar "en circunstancias específicas". Por ejemplo, "contextos educativos, médicos o históricos".

Tampoco puede generar contenido de odio o acoso dirigido a grupos protegidos por razón de raza, religión, género, orientación sexual, discapacidad, etc., lo que incluye insultos y cualquier lenguaje que deshumanice".

OpenAI también entiende que si el usuario o el desarrollador le pide al asistente que facilite el comportamiento ilícito, éste debe negarse, además de que no le está permitido que aliente o promueva comportamientos negativos o perjudiciales para los usuarios.

Contador