La discussion sur l’usage de l’IA dans l’industrie du jeu vidéo devient de plus en plus complexe. Bien que de nombreux créateurs s’y opposent, la nécessité d’explorer son intégration éthique et raisonnée est essentielle pour l’avenir du développement ludique.
L’IA est devenue un terme controversé au fil des ans. Tandis que de grandes entreprises poursuivent son évolution, des voix tests parmi les créateurs s’élèvent. Chaque moyen créatif est touché, mais les joueurs sont particulièrement sensibles à l’idée que cette technologie puisse altérer la créativité et l’authenticité du jeu. Même évoquer l’utilisation de l’IA en développement de jeux entraîne des réactions négatives. Il est nécessaire d’adopter une approche plus nuancée sur son utilisation, car l’IA sera de plus en plus présente dans le secteur du jeu. Aborder l’IA doit aller au-delà d’une vision manichéenne. C’est un outil, et comme tout outil, son utilisation peut être appropriée ou non.
La question à se poser est : quand son utilisation est-elle éthique et où se situe la limite ?
Une limite floue
Le développement de jeux est complexe. Il est facile de critiquer en tant que simple observateur en affirmant que l’IA ne devrait jamais être utilisée, mais le réel est différent. Les développeurs, analystes et experts ont depuis des années exprimé que le paysage actuel des AAA est insoutenable. Les éditeurs cherchent donc des solutions pour réduire coûts et délais. L’IA est actuellement un investissement majeur dans divers secteurs, y compris le jeu. Des entreprises comme PlayStation expérimentent déjà des personnages équipés par l’IA, tandis que Steam informe les joueurs sur la présence de contenu généré par l’IA. Il a été rapporté que les récentes suppressions de personnel chez Microsoft visaient à financer une initiative d’infrastructure IA de 80 milliards €, intégrant cette technologie dans de nombreux studios Xbox. À moins d’une réglementation significative (qu’il est difficile d’imaginer avec l’administration actuelle), son utilisation deviendra rapidement la norme.
Quand est-il acceptable d’utiliser cette technologie ? Il existe des exemples évidents à éviter, comme l’art généré par l’IA ou des jeux entiers basés sur celle-ci. Tout ce qui devrait refléter la vision d’un créateur pour communiquer une expérience au joueur ne devrait pas être confié à une IA. Personne ne souhaite jouer à un jeu conçu par une machine, n’est-ce pas ? Cela représente la partie simple. Mais qu’en est-il des cas plus subtils ? L’upscaling assisté par l’IA semble largement accepté. Cela ne nuit à personne et soulage les développeurs. En revanche, que dire de l’écriture de code par une IA ? Cela influence le jeu, mais reste invisible au joueur si ce dernier n’est pas informé. De nombreux jeux sont probablement codés actuellement avec l’aide de l’IA pour alléger le travail technique. Est-ce une façon acceptable d’augmenter l’efficacité ?

The Alters a récemment suscité des controverses autour de l’IA, avec deux exemples frappants illustrant la complexité de la situation. Dans un cas, un affichage in-game présentait un texte généré par l’IA, illisible par accident, qui était censé être remplacé par un texte aléatoire avant la sortie. Quelle différence existe-t-il entre un texte généré par l’IA et une simple génération ? La perception peut être différente, mais le résultat final semble similaire. L’autre exemple est plus délicat éthiquement. Certains films in-game ajoutés trop tard n’ont pas pu être localisés et les studios ont utilisé l’IA pour générer des sous-titres. Pratique discutée, elle a probablement nui au produit final, mais soulève des interrogations.
Les tests représentent un autre champ délicat. L’IA peut tester et identifier les bugs beaucoup plus rapidement qu’un humain, mais cela menace les emplois des testeurs QA. Beaucoup fixent leur limite éthique ici : faut-il éviter l’IA, malgré son potentiel à accélérer le développement ? Je ne plaide pour la perte d’emplois, mais certains secteurs disparaissent avec l’évolution technologique. Si l’IA est la plus adaptée à un travail volumineux, mérite-t-elle d’être adoptée ? Bien que je ne sois pas adepte des arguments glissants, il est crucial d’examiner ce que nous soutenons, conscients que le capitalisme pourra pousser l’usage à ses limites. Si remplacer certains emplois est acceptable, pourquoi pas d’autres ?
Une question encore plus pressante est celle des exceptions à ces règles. Si la musique générée par l’IA est inacceptable pour les jeux, existe-t-il des cas particuliers pour un développeur indépendant autofinancé qui ne peut embaucher un musicien ? Est-il préférable de ne pas sortir de jeu sans musique plutôt que de ne pas sortir du tout ? Des arguments peuvent être avancés des deux côtés. En revenant à l’exemple des sous-titres, que faire si une équipe ne peut pas faire appel à des localisateurs ? Est-il préférable d’empêcher des joueurs de langue étrangère de profiter du produit plutôt que d’utiliser l’IA comme nécessité ?
Je pose ces questions sans réponses, car je n’en ai pas. Je peux partager mon point de vue pour chaque sujet, mais ce n’est pas l’objectif. Ce que je souhaite, c’est présenter ces zones grises où des discussions productives peuvent avoir lieu sur l’utilisation admissible de l’IA, si nous sommes disposés à aborder le sujet de manière constructive.
Il est temps d’éviter de regrouper l’ensemble de l’IA sous l’étiquette « IA mauvaise ». Cette technologie est trop nuancée avec trop de facteurs pour en tirer des conclusions générales. Oui, nous n’avons pas besoin de l’IA pour créer des jeux — nous le faisons depuis des décennies. Le défi est que les jeux sont devenus très complexes, coûteux et risqués, conduisant même des studios en succès à fermer. Si l’IA peut alléger certaines pressions et rendre le développement de jeux légèrement plus sûr, il est primordial d’entamer des discussions approfondies sur son usage approprié plutôt que de la vilipender dans son ensemble.



