OpenAI a mené une enquête auprès de plus de 1 000 personnes à travers le monde pour recueillir leurs avis sur le comportement que devraient adopter les systèmes d’intelligence artificielle. L’objectif était de comparer ces opinions avec les directives actuelles de leur Model Spec, le document définissant les principes et les limites éthiques de leurs modèles. Cette démarche s’inscrit dans une volonté de renforcer l’alignement collectif, une approche visant à faire correspondre les comportements par défaut des IA aux valeurs et aux attentes variées des utilisateurs, plutôt qu’à une vision unique ou imposée.
Les résultats de l’enquête révèlent des divergences et des convergences notables entre les préférences des participants et les règles existantes. Par exemple, certaines cultures privilégient une IA plus directive ou conservatrice dans ses réponses, tandis que d’autres insistent sur la neutralité ou l’ouverture. Ces différences soulignent l’importance d’adapter les systèmes pour refléter une diversité de perspectives, tout en évitant les biais culturels ou idéologiques. OpenAI met en avant que cette consultation publique permet d’identifier des ajustements nécessaires, comme la gestion des sujets sensibles (politique, religion, santé) ou le ton adopté par l’IA selon les contextes.
L’enquête a également mis en lumière des attentes communes, telles que la transparence sur les limites des modèles, la protection de la vie privée ou la prévention des usages malveillants. Les participants ont exprimé un fort soutien pour des IA conçues pour aider sans nuire, en évitant par exemple les conseils médicaux non vérifiés ou les contenus haineux. Ces retours confirment que, malgré les différences culturelles, certains principes universels émergent, comme la sécurité, l’équité et le respect. OpenAI indique que ces enseignements seront intégrés dans les prochaines versions de ses modèles, avec des mécanismes de personnalisation accrue pour les utilisateurs.
Enfin, cette initiative illustre une évolution vers une gouvernance plus participative de l’IA, où les choix technologiques ne sont plus uniquement déterminés par des experts ou des entreprises, mais aussi par des citoyens ordinaires. En rendant publics les résultats et en sollicitant des avis externes, OpenAI cherche à démocratiser la définition des normes éthiques, tout en reconnaissant les défis posés par la conciliation de valeurs parfois contradictoires. L’alignement collectif reste un travail en cours, nécessitant des itérations constantes pour équilibrer innovation, inclusivité et responsabilité.