Open AI décrit dans un billet de blog comment l’entreprise s’efforce de sécuriser les outils d’intelligence artificielle les plus en vue. Il s’agit notamment de limiter les outils afin qu’ils ne puissent pas être utilisés pour nuire ou menacer la vie privée des utilisateurs.

Ils soulignent également que les enfants ne sont pas autorisés à utiliser les outils Chat GPT et GPT-4, et qu’il existe une limite d’âge de 18 ans. Les enfants de plus de 13 ans peuvent utiliser les outils avec l’autorisation de leurs parents.

Mais il faut actuellement, aucune vérification de l’âge n’est requise avant d’utiliser les outils, ce qu’Open AI est en train de revoir.

Les utilisateurs du Chat GPT sont avertis, après s’être connectés, que le système n’est pas destiné à fournir des conseils et qu’il peut parfois générer des informations inexactes ou trompeuses, ainsi que des contenus offensants ou tendancieux.

« Nous serons de plus en plus prudents au fur et à mesure que nous créons et lançons des modèles plus performants, et nous continuerons à améliorer les mesures de sécurité au fur et à mesure que nos systèmes d’IA évoluent », écrit Open AI.