Information et communication > Accueil > Revue ouverte d’ingénierie des systèmes d’information > Numéro
Ce numéro spécial de la Revue Ouverte de l’Ingénierie des Systèmes d’Information se consacre à la thématique « L’industrie culturelle face à la transformation numérique », un sujet central pour comprendre les évolutions récentes des pratiques, des organisations et des usages culturels à l’ère du numérique. La culture, qui englobe croyances, pratiques, normes, valeurs, traditions et connaissances partagées, façonne les interactions sociales et les modes de production et de consommation. La transformation numérique modifie profondément ces processus, en offrant de nouvelles formes d’accès, de consommation et de création culturelle
Cet article interroge les discours dominants sur l’intelligence artificielle générative (IAg) dans les industries culturelles et créatives, pour les confronter aux dynamiques sociales et économiques qui accompagnent son intégration dans les processus et les collectifs de travail. Trois mythes sont analysés : la disparition des métiers et des emplois, l’obsolescence des compétences et les gains de productivité. Dans une démarche pluridisciplinaire combinant expertise en IA, approche sociotechnique et analyse du terrain, nous montrons que la situation révèle des déséquilibres structurels davantage qu’elle n’en produit : la dégradation tendancielle des processus-métiers, la captation de la valeur et la déqualification en sont des illustrations parlantes. Nous mettons en lumière des usages réels qui tendent à reconfigurer ces technologies et proposons des pistes concrètes pour une réappropriation collective à travers l’autonomisation des acteurs, les laboratoires d’usage et le dialogue social technologique.
Dans cet article nous nous intéressons au système de recommandation du site de vidéo à la demande avec abonnement (SVOD) Netflix®, en prenant une double approche : le design, qui fonde notre questionnement sur la perception que l’utilisateur peut avoir sur les recommandations, et l’informatique, qui nous permet d’expliciter certains mécanismes génériques, déjà connus, des systèmes de recommandation. Pour cela nous nous concentrons sur l’influence que le choix des films et séries a sur les recommandations postérieures. Une de nos interrogations initiales porte sur le "démarrage à froid" du système et nous comparons, dans nos expériences, deux types de profil-utilisateur : l’un est ancien, alimenté depuis 7 ans, l’autre est créé pour l’occasion. Notre première expérience permet de mettre en avant le rôle crucial de la catégorisation des films - sur des critères de contenu, de popularité, ou d’exclusivité, par exemple. Ce travail nous a permis d’observer plusieurs éléments. Comme nous l’avions anticipé du fait de l’inertie des méthodes d’apprentissage, sur un profil récent l’expérience est très nettement plus visible que sur un profil ancien, et il est simple d’influencer par ses choix les recommandations. Ensuite, le nouveau profil reçoit beaucoup de recommandations génériques, puis très rapidement un peu contenu personnalisé qui peut être présenté dans différentes catégories. Enfin, la réversibilité du processus de recommandation est rapide sur le profil ancien, car quelques jours sans visionage permettent de faire disparaître les traces de l’expérience. Ces expériences nous ont en outre permis de nous interroger sur les catégories qui sont finalement très nombreuses, plus ou moins précises, et non disjointes en contenu. Cette observation nous oriente vers une réflexion à venir sur la construction des catégories dans l’organisation pratique du capitalisme de surveillance.
Cet article analyse les risques associés à l’utilisation d’agents conversationnels génératifs tels que ChatGPT pour l’accès aux connaissances scientifiques (et plus globalement techniques et médicales). Le développement du Web s’est en effet accompagné d’une évolution du processus de gatekeeping sous une forme algorithmique dont les intelligences artificielles génératives constituent le dernier avatar. Leurs limitations, et notamment les phénomènes d’hallucinations et de biais, sont cependant connues. Dès lors, ces agents conversationnels se révèlent-ils aptes à des tâches de médiation scientifique ? Leurs performances sont conditionnées aux caractéristiques de leur algorithme mais aussi de la disponibilité de données d’entraînement en quantité et de qualité. Or, l’accès à des contenus de sites de presse est régulièrement entravé par les éditeurs. Qu’en est-il pour les contenus scientifiques gérés par des éditeurs scientifiques commerciaux ? Les producteurs d’agents conversationnels génératifs doivent-ils se contenter de contenus de moindre qualité avec des conséquences dommageables sur la fiabilité des réponses ? Nous analysons dès lors les risques de mésinformation scientifique dus aux contraintes d’accès aux données. Nous discutons ensuite plus globalement ces risques, en cas d’usage en tant que médiateur scientifique, selon différents scénarios d’utilisation.
Les médias synthétiques produits par intelligence artificielle générative (IAG) ont rapidement inondé le Web, faisant planer un risque de préjudices culturels auquel il convient de remédier. Or le sujet des préjudices culturels pouvant découler de la dissémination de médias synthétiques n’a été que partiellement traité dans la littérature juridique. Ce travail vise à combler cette lacune en proposant une exploration des implications juridiques des médias synthétiques, dès lors qu’ils rendent plus probable la survenance de préjudices culturels. A cette fin, le concept-clé de préjudice culturel ainsi que le rôle occupé par les droits culturels et le principe de diversité culturelle dans sa détermination feront l’objet d’une première analyse. Seront ensuite abordés les manières dont les médias synthétiques peuvent entraîner des préjudices culturels et les conséquences juridiques potentielles. Il sera ainsi démontré que bien que le droit international prévoie des mécanismes permettant la prévention des préjudices culturels, peu de moyens permettent une réelle prise en compte des spécificités des médias synthétiques culturellement préjudiciables.
2026
Volume 26- 6
Numéro Spécial2025
Volume 25- 5
Numéro Spécial2024
Volume 24- 4
Numéro Spécial2023
Volume 23- 3
Numéro Spécial2021
Volume 21- 2
Numéro 12020
Volume 20- 1
Numéro 1