Aller au contenu

« Discussion:Éthique de l'intelligence artificielle » : différence entre les versions

Le contenu de la page n’est pas pris en charge dans d’autres langues.
Une page de Wikipédia, l'encyclopédie libre.
Contenu supprimé Contenu ajouté
Tamaraap (discuter | contributions)
Tamaraap (discuter | contributions)
m correction orthographique
(4 versions intermédiaires par le même utilisateur non affichées)
Ligne 6 : Ligne 6 :
|Philosophie|faible
|Philosophie|faible
|Web sémantique|faible
|Web sémantique|faible
|avancement=ébauche
|avancement=BD
}}
}}


Ligne 168 : Ligne 168 :


Tamara [[Utilisateur:Tamaraap|Tamaraap]] ([[Discussion utilisateur:Tamaraap|discuter]]) 25 février 2024 à 01:38 (CET)
Tamara [[Utilisateur:Tamaraap|Tamaraap]] ([[Discussion utilisateur:Tamaraap|discuter]]) 25 février 2024 à 01:38 (CET)

:J'applique les changements et s'il y a des modifications à faire que quelqu'un me suggère, ou un désaccord avec mon choix de plan, alors on remodifiera plus tard ! [[Utilisateur:Tamaraap|Tamaraap]] ([[Discussion utilisateur:Tamaraap|discuter]]) 27 février 2024 à 16:45 (CET)


== Pertinence de la catégorie "chercheur" ==
== Pertinence de la catégorie "chercheur" ==


Etant donné que cette discipline est très vaste à présent, lister tous les chercheurs qui sont spécialiser dans cette discipline prendrait trop de place. De plus, certains chercheurs cité dans cette catégorie ne sont pas particulièrement spécialisé dans l'éthique de l'IA, ce sont souvent des chercheurs en IA/apprentissage machine qui parlent parfois d'éthique. Etes vous pour ou contre la conserver ? [[Utilisateur:Tamaraap|Tamaraap]] ([[Discussion utilisateur:Tamaraap|discuter]]) 26 février 2024 à 02:01 (CET)
Etant donné que cette discipline est très vaste à présent, lister tous les chercheurs qui sont spécialisé dans cette discipline prendrait trop de place. De plus, certains chercheurs cité dans cette catégorie ne sont pas particulièrement spécialisé dans l'éthique de l'IA, ce sont souvent des chercheurs en IA/apprentissage machine qui parlent parfois d'éthique. Etes vous pour ou contre la conserver ? [[Utilisateur:Tamaraap|Tamaraap]] ([[Discussion utilisateur:Tamaraap|discuter]]) 26 février 2024 à 02:01 (CET)

== Ajout d'une catgéorie "l'éthique de l'IA dans la littérature et le cinéma" ==

Bonjour,

Dans plusieurs sous-catégories, les informations qui sont présentées parlent d'un scénario hypothétique raconté par un romancier ou un réalisateur dans son oeuvre. C'est très intéressant mais je pense que c'est bien de les séparer du contenu scientifique car ça peut embrouiller les lecteurs entre ce qui est de l'ordre du scénario post apocalyptique romantisé et ce qui est de l'ordre de la préoccupation scientifique. Les préaucupations soulevées par ces oeuvres sont souvent très intéressantes et proches des préoccupations réelles des scientifiques mais je pense que les séparer permet de d'abord montrer que ces inquiétudes sont bien réelles et plausibles, et que ce n'est pas seulement de l'ordre du fantastique.

N'hésitez pas à me dire si vous n'êtes pas d'accord !

En attendant je crée une partie "l'éthique de l'IA dans la littérature et le cinéma" dans laquelle je mets toutes ces oeuvres ! [[Utilisateur:Tamaraap|Tamaraap]] ([[Discussion utilisateur:Tamaraap|discuter]]) 27 février 2024 à 17:17 (CET)

Version du 27 février 2024 à 17:18

Liens externes modifiés

Bonjour aux contributeurs,

Je viens de modifier 1 lien(s) externe(s) sur Éthique de l'intelligence artificielle. Prenez le temps de vérifier ma modification. Si vous avez des questions, ou que vous voulez que le bot ignore le lien ou la page complète, lisez cette FaQ pour de plus amples informations. J'ai fait les changements suivants :

SVP, lisez la FaQ pour connaître les erreurs corrigées par le bot.

Cordialement.—InternetArchiveBot (Rapportez une erreur) 23 juillet 2018 à 16:02 (CEST)[répondre]

Capitales sur les titres des lettres ?

Bonjour, je me demande s’il est nécessaire de laisser les titres anglais des lettres ouvertes dans la section « Lettres ouvertes de la communauté de l'IA ». Non seulement les titres de ses sous-sections sont en français et en minuscules, mais en plus ces gros titres en capitales gênent la lisibilité. J’imagine que les titres originaux étaient ainsi, mais c’est justement pour en augmenter la lisibilité ; paradoxal, non ? Mots Doux (discuter) 2 juillet 2020 à 20:44 (CEST)[répondre]

Evaluation

Bonjour,

Evaluation de l'article réalisée. J'ai redescendu en ébauche (si pas OK, pouvez augmenter).

Bonne journée,

Groumphy (discuter) 13 août 2020 à 07:47 (CEST)[répondre]

Ajout de paragraphes

Bonjour,

Je viens d'ajouter un paragraphe sur l' effervescence des guides d'éthique en Intelligence Artificielle et principes non-uniformisés, à la suite de la lecture de l'article d'Anna Jobin, Marcello Ienca et Effy Vayena. J'ai également ajouté un sous-paragraphe sur la notion d'ethics washing. En effet, au cours de mes recherches, je n'ai pas trouvé de page parlant de cette notion en français. Je trouvais ces sujets intéressants et ouverts au débat. Qu'en pensez vous ?

N'hésitez pas à me faire des retours et/ou remarques.

Bonne soirée,

--AlexiaPRONESTI ecn (discuter) 14 juin 2021 à 23:14 (CEST)[répondre]

Proposition de restructuration

Bonjour,

J'ai travaillé sur une proposition de restructuration de cet article qui en a bien besoin ! Voici le sommaire avec les explications :


1) Préoccupations éthiques (anciennement Roboéthique)

=> Dans l'état actuel de la recherche en éthique de l'IA, on ne parle plus vraiment de roboéthique car il existe de nombreuses préoccupations éthiques uniquement propres aux IAs lors de leur utilisation/conception/création et moins pertinantes dans le large contexte de la robotique. Le titre préoccupations éthiques est suffisamment large pour pouvoir y mettre de nombreuses préoccupations diverses et variées qui peuvent être étudiées par la roboéthique ou non. Cette catégorie est importante car elle donne une bonne overview de tous les sous-domaines qui existent dans l'éthique de l'IA. Bien sûr, il est fort possible que j'oublie certains sous-domaines importants de cette discipline, mais ils pourront être ajouté au fur et à mesure.

1.1) Droits des robots

=> RAS

1.2) AI et emplois (nouveau)

=> On peut reprendre ce qui a été dit dans la page principale de l'Intelligence artificielle. C'est une préoccupation importante de l'éthique, je pense qu'elle a plus sa place dans cette page que dans la page principale sur l'intelligence artificielle.

1.3) Atteinte à la vie privée

=> RAS

1.4) Atteinte à la dignité humaine

=> RAS

1.5) Transparence et explicabilité (anciennement Transparence)

=> J'ai ajouté explicabilité et je changerais sûrement aussi quelques trucs dans le texte car c'est le terme qu'on utilise dans la recherche pour parler de notre compréhension du fonctionnement des IAs.

1.6) Open source et openness

=> RAS

1.7) Equité (nouveau)

=> C'est un des plus grands champs de recherche en éthique de l'IA (fairness en anglais), je trouve ça vraiment important d'en parler quelque part dans cette page. Je pense qu'aussi traduire la page fairness de l'anglais pourrait être utile.

1.8) Alignement et éthiques des machines (anciennement éthiques des machines)

=> Les termes alignement des valeurs et éthques des machines désigne des concepts très similaires donc ça peut être intéressant de les regrouper. De même, l'alignement (value alignement en anglais) est un des plus grands champs de recherche en éthique de l'IA, c'est dommage de le mentionner nulle part.

1.9) Cyberattaques (nouveau)

=> Cette sous-partie parlerait du domaine qu'on appelle Adversial Machine Learning en anglais qui regroupe toutes les cyberattaques faites sur des IAs pour controller leur algorithm, rendre des services indisponibles ou récupérer des données dans le but de nuire à d'autres personnes ou entités. Il existe une tonne de nouvelles cyberattaques basées sur des IAs, et cela pose de nouveaux problèmes de sécurité et donc d'éthiques. En particulier si des personnes dans le futur deviennent dépendantes de certaines IAs pour mener à bien leur vie quotidienne (par exemple une personne avec un handicap qui utilise une IA pour pallié à son handicap), alors des cyberattaques contre ce type d'IA peuvent être catastrophique. Il existe aussi, par exemple, des cyberattaques contre les algorithmes de recommandation pour propager de la propagande.

1.10) Impact environnemental (nouveau)

=> Cette sous partie existe aussi dans l'article principale sur l'Intelligence artificielle. L'idée est de parler de l'impact environnemental des serveurs.

1.11) Collection et labélisation des données (nouveau)

=> C'est un sujet qui a pas mal été traité par l'actualité donc je pense qu'il pourrait être intéressant : il existe de nombreux enjeux sociaux et politiques autour de la collection et labélisation des données, par exemple le vol du travail de certains artistes ou journeaux (ex. procès du New York Times), le tri de données inapropriées qui est délégué à des entreprises localisés dans des pays et milieux plus modèstes, etc.

1.12) Superintelligence et imprévisibilité (anciennement Conséquences inattendus)

=> Le titre Conséquences inattendus est selon moi pas assez précis contenu du sujet de cette sous-section. Je trouve que Superintelligence et imprévisibilité est plus approprié.


2) Technologies controversées (nouveau)

=> Cette catégorie a pour but de rassembler les système d'IA ou catégorie d'IA qui font énormément débat dans la communauté de l'éthique de l'IA.

2.1) Armes autonomes (anciennement Intelligence artificielle et armes autonomes)

=> Juste un raccourcissement du titre, je trouve qu'ajouter "intelligence artificielle" n'apporte pas de nouvelle information.

2.1.1) Lettres ouvertes de la communauté de l'IA

=> RAS

2.2) Deepfake (nouveau)

=> Renvoyer à la page deepfake, mais ça peut être intéressant de parler comment les deepfakes ont impactés l'éthique de l'IA notament sur la remise en cause du progrès et de la démocartisation de l'IA.

2.3) Algorithmes de recommandation (nouveau)

=> Important pour parler de la propagande, des bulles de contenus, et de tous les autres sujets débattus dans la communauté de l'éthique.


3) Positions inflationniste et déflationniste

=> RAS

3.1) Point de vue inflationniste

=> RAS

3.2) Point de vue déflationniste

=> RAS


4) Législations, principes, directives et guides d'éthiques

=> Ces trois sous-catégories étaient un peu éparpillées, je les rassemble donc sous ce titre.

4.1) Principes d'Asilomar

=> RAS

4.2) IA digne de confiance et Europe (anciennement Ethique de l'IA, IA digne de confiance et Europe)

=> Raccourcissement du titre.

4.3) Non-uniformisation des principes éthiques

=> RAS


5) Etics Washing

=> Je pense que ce paragraphe mérite d'être à part, et qu'il ne correspond à aucune autre sous-catégorie


Voilà ! Normalement toutes les sous-catégories qui existait avant sont présentes, sauf oubli de ma part. Hésitez pas à me dire ce que vous en pensez et à proposer d'autres alternatives si besoin :)

Tamara Tamaraap (discuter) 25 février 2024 à 01:38 (CET)[répondre]

J'applique les changements et s'il y a des modifications à faire que quelqu'un me suggère, ou un désaccord avec mon choix de plan, alors on remodifiera plus tard ! Tamaraap (discuter) 27 février 2024 à 16:45 (CET)[répondre]

Pertinence de la catégorie "chercheur"

Etant donné que cette discipline est très vaste à présent, lister tous les chercheurs qui sont spécialisé dans cette discipline prendrait trop de place. De plus, certains chercheurs cité dans cette catégorie ne sont pas particulièrement spécialisé dans l'éthique de l'IA, ce sont souvent des chercheurs en IA/apprentissage machine qui parlent parfois d'éthique. Etes vous pour ou contre la conserver ? Tamaraap (discuter) 26 février 2024 à 02:01 (CET)[répondre]

Ajout d'une catgéorie "l'éthique de l'IA dans la littérature et le cinéma"

Bonjour,

Dans plusieurs sous-catégories, les informations qui sont présentées parlent d'un scénario hypothétique raconté par un romancier ou un réalisateur dans son oeuvre. C'est très intéressant mais je pense que c'est bien de les séparer du contenu scientifique car ça peut embrouiller les lecteurs entre ce qui est de l'ordre du scénario post apocalyptique romantisé et ce qui est de l'ordre de la préoccupation scientifique. Les préaucupations soulevées par ces oeuvres sont souvent très intéressantes et proches des préoccupations réelles des scientifiques mais je pense que les séparer permet de d'abord montrer que ces inquiétudes sont bien réelles et plausibles, et que ce n'est pas seulement de l'ordre du fantastique.

N'hésitez pas à me dire si vous n'êtes pas d'accord !

En attendant je crée une partie "l'éthique de l'IA dans la littérature et le cinéma" dans laquelle je mets toutes ces oeuvres ! Tamaraap (discuter) 27 février 2024 à 17:17 (CET)[répondre]