+11 votes
1.7k vues
par Crapaud dingue (91 points) dans Technologie
L'IA (Intelligence Artificielle) et plus précisément sont développement récent, semble poser un débat sur son rôle même aux côté des humains. En effet, certains craignent que l'IA soit le prochain monstre qui va détruire l'humain alors que d'autres y voient plus simplement un moyen d'augmenter l'humain et de se substituer à lui sur des taches répétitives et à faible valeur ajoutée. Enfin, d'autre y voient un entre deux posant les bases de ce pourrait être une régulation de l'IA.

Faut-il aujourd'hui se méfier de l'IA et ralentir son développement ? Ou au contraire, faut-il favoriser son développement avec ou sans encadrement ?

Il semble qu'aujourd'hui les meilleurs résultats obtenus dans l'utilisation de l'IA (outre les victoire face aux humains aux jeu d'échec, jeu de Go et autre jeux) soient en réalité la combinaison des deux. Une machine pour certaines taches et un humain pour compléter sur les taches les plus complexes.

Certes, les avancées sont rapides et on peut craindre le remplacement des humains au travail par des machines et des robots, mais si cela cela devait arriver, alors que deviendrait le travail ? Serions-nous toujours occupés ?

Voilà, à mon sens un sujet sur lequel nous devons commencer un débat de société, ouvert et inclusif.

7 Réponses

+5 votes
par Batracien fou (349 points)

Je pense qu'il y a deux questions distinctes:

le futur de l'intelligence

A quelle vitesse allons-nous deleguer notre capacite decisionnelle en faveur de systeme experts? Quels pare-fous pourraient etre inventes et mis en place pour conserver un semblant d'equilibre le plus longtemps possile?

le futur du travail

Dans une societe automatisee, ou le travail repetitif ou mecanique est remplace par des machines, quel modele de societe pourrait etre pense qui ne soit pas base uniquement sur la valeur travail en tant que critere predominant de valuation sociale?

par Crapaud dingue (91 points)
Merci @mose, je partage ton avis... En effet, ce sont deux questions importantes. Que déléguons nous aux machines et en fonction quelle modèle de société allons nous en retirer.
+2 votes
par Batracien fou (256 points)

Vous posez tous les deux des questions complexes et fondamentales frown et éclairantes enlightened

Je suis très peu expert sur le sujet de l'IA proprement dit mais pour apporter une petite pierre à l'édifice, je crois que:

- il faut moins se méfier de l'IA que de l'humain... c'est l'usage que nous en ferons ou qui nous sera imposé par des hommes de pouvoir qui est la clé

- si l'IA évolue vers de l'autonomie, notre libre-arbitre peut se retrouver en danger mais je crois qu'on est encore assez loin de ce cas de figure. C'est l'homme qui décidera de déléguer et c'est l'homme qu'il faut éduquer / surveiller

- l'avenir du travail est un chantier énorme et fondamental. L'automatisation pour les pays riches / industrialisés est certainement une menace pour ceux qui ne peuvent accéder à un job à forte valeur intellectuelle ajoutée; ce danger de chômage accru très comparable au danger causé par la délocalisation / mondialisation. Je rejoins Mose: c'est tout un modèle de société à repenser, de valeurs à définir et la priorité absolue pour que cette réflexion soit positive pour notre espèce c'est l'éducation, encore et toujours l'éducation... et c'est là qu'une initiative comme celle des crapauds fous peut apporter beaucoup de choses

par Crapaud dingue (91 points)
Tout à fait, merci @Eric pour ce retour... Je suis d’accord sur le fait que l’humain reste celui qui mettra en ouvre l’IA... Mais si certains maîtrisent les technologies et d’autres non et que le sujet n’entre pas dans le débat publique, notamment sur ces enjeux éthiques et du futur de la société, alors ils pourront l’imposer... Pour le meilleure et les exemples ne manquent pas, mais aussi pour le pire, la aussi, les exemples sont faciles à imaginer. C’est donc, si je comprend bien, une double avancée, celle technologique et en parallèle, celle sociétale.
+1 vote
par Batracien fou (271 points)
D'accord avec tout ce qui a été cité par Mose, Olivier et Eric.
Pour moi, l'enjeu au final est moins le risque de machines asservissant l'humanité (= pure science fiction ), que le risque de fracture sociale aggravée entre humains. Toute techno crée des gagnants et des perdants, mais ici la vitesse et l'ampleur des changements créent des masses de perdants, de "laissés pour compte" de la techno ou de la mondialisation.

Les dérives monopolistiques ont toujours existé, mais ce qui est en jeu au 21° siècle c'est l'intelligence, notre manière de nous informer, de décider, d'exister. Plus grave que les landlords ou les barons du rail du 19° !

Conséquence si on n'éveille pas les citoyens sur le sujet : Matrix !
par Crapaud dingue (90 points)
Chaque époque de crise répond a cette crise par deux voies :
Répondre aux limitations par la technique, cf le rail au 19eme siècle pour abolir l'espace
Répondre à l'espace temps laissé vide pour écrire de nouveaux modes de sensibilité,  cf les impressionnistes au 19eme siècle.
Brefutiliser l'IA pour augmenter nos capacités créatrices et notre perception du monde, oui.
Pour l'utiliser uniquement pour rationiciser un espace déjà étriqué, non , a moins que l'on n'a plus assez de temps pour lz voie artistique.
par Crapaud dingue (90 points)
Axiome de base, l'esprit humain est infini. Tout est dans l'exercice pour créer de nouveaux espaces.
+4 votes
par Crapaud fou (36 points)

Bonjour,

Encore un débat très riche qui mériterait d'être décomposé en sous-tâches comme @mose a commencé à le faire.

  1. Le débat éthique sur la loyauté de l'IA et plus précisément les algorithmes d'apprentissage. Voir: https://idees.crapaud-fou.org/20/transparence-fiabilite-loyaute-des-algorithmes
  2. la destruction continue de l'emploi par l'automatisation, les robots et les algorithmes. Difficile de ne pas citer les travaux et propositions de Bernard Stiegler sur le sujet. https://fr.wikipedia.org/wiki/Bernard_Stiegler qui consiste, pour dire vite, à remplacer les "emplois" par du "travail"
  3. Intelligence artificielle ou augmentée, transhumanisme, singularité technologique... fantasme ou réalité?
  • autres ...?

Je partage l'avis général: l'humain avide et cupide est bien plus dangereux que l"algorithme" dont objectif, conception et utilisation ne sont que le reflet de nos sociétés.

par Batracien fou (256 points)
fylb, j'aimerais bien
- rajouter à ces grands thèmes un point 4 : quel encadrement / gouvernance pour que l'IA (et ses créateurs) ne deviennent pas une nuisance majeure.
Est ce qu'à ton avis on doit relier aussi le danger de la manipulation des big data à ce sujet de l'IA?
par Batracien fou (256 points)
fylb, si tu veux tu viens ds le chat https://coa.crapaud-fou.org/channel/cercle-genie-digital pour qu'on débroussaille le terrain et déterminer au delà de l'analyse quelles actions peuvent être identifiées?
par Crapaud fou (36 points)
Oui la réglementation est un point important et oui l'IA, celle qui fait actuellement le buz, est construite sur la disponibilité (pour certains) de données massiques, ne serait que pour apprendre des réseaux de neurones profonds avec un nombre astronomique de paramètres à estimer mais... il ne fait pas rêver. La loi "république numérique"  vient d'être promulguée (un an), ses décrets parus, le règlement européen sera actif en mai 2018 mais, à part l'administration française, finalement très peu de contraintes cf. Besse et al. (2017) https://hal.archives-ouvertes.fr/hal-01544701/  Il ne faut pas espérer une retouche de ces lois et règlements sans pression très forte de la société civile.

Ok je tâche de me connecter prochainement dans le coa coa...
+3 votes
par Tétard dingue (10 points)
A la question posée faut-il ralentir la progression de l'IA, je pense qu'il faut faire appel à l'histoire de l'industrialisation de l'Europe dans les années 80 pour trouver des éléments de réflexion. La France a ''raté'' cette phase d'industrialisation par peur de l'arrivée des robots dans les usines. Les syndicats de l'époque ont réussi à freiner l'intégration de la machine-outil à commande numérique au nom de l'emploi. L'Allemagne quant à elle a eu une démarche strictement inverse et a renforcé sur la durée son industrie, secteur qui a généré du développement d'expertise de pointe et de l'embauche entre 80 et 2000.

La question est donc d'épouser l'arrivée de l'IA, canaliser une énergie nouvelle pour en faire un facteur additionnel de résolution de la complexité. Il est de la responsabilité des neurosciences d'être chevillées aux usages fait de l'IA quant à un déterminisme de l'espèce.

A travers le digital, ses exigences de transversalité et d'ubiquité, les entreprises réussissent à se désiloter, à faire travailler de concert les métiers et l'informatique. Un élan de créativité voit le jour, d'idéation. Ce qu'on peut craindre selon moi, c'est que l'IA tue ce nouvel élan de création. Pourquoi ? Aujourd'hui, l'IA répond au fantasme de la boule de cristal, de prédire le futur grâce à son usage dans le prédictif, on avance désormais sur des modèles prescriptifs, c'est à dire que non seulement l'IA prédit mais propose la solution pour anticiper. On peut craindre que le prochain pas soit le ''directif'', c'est à dire que nous n'ayons plus le choix de ne pas suivre la prescription. Pour un véhicule autonome c'est super, mais pour notre vie professionnelle ou personnelle, c'est inacceptable.

Pour que IA empathique ne soit pas une oxymore, la résistance à l'IA s'impose par l'esprit critique, la subversion, la créativité, la culture générale.
par Batracien fou (256 points)
Que veux tu dire par : Il est de la responsabilité des neurosciences d'être chevillées aux usages fait de l'IA quant à un déterminisme de l'espèce ?

J'ai peur que le modèle prescriptif soit déjà bien présent dans pas mal de modèles business qui nous enferment dans des modes de consommation effrénés .  Cela vaut pour le tangible (durée de vie des produits programmée... par ex.) et l'intangible (la multiplication des fêtes et journées encourageant la consommation , le black friday est le dernier exemple en date).

Finalement ce qui est à craindre le plus c'est que l'IA reproduise nos excès et travers mais avec encore plus d'efficacité ...
par Tétard dingue (10 points)
L'IA et ses modèles, l'algorithmique de manière générale avancent un peu en tâtonnant dans l'obscurité, ne suivant pas des règles traditionnelles de causalité. Les neurosciences, renforcées depuis quelques années notamment grâce à l'exploration fonctionnelle du cerveau, percent plus en profondeur les mécanismes humains qui prévalent à la prise de décision. Comme tout devient expérience, le couplage de l'IA à une meilleure connaissance des mécanismes instinctifs et analytiques de l'être humain pourrait se révéler très dangereux.

Aussi je pense que les neurosciences ont toute légitimité à proposer des gardes-fous vis à vis de la toxicité addictive d'un système semblant nous augmenter, semblant nous proposer des sensations de facilité et des hyper-expériences.
par Crapaud dingue (90 points)
Mais ne sommes nous pas faits pour mieux nous connaître ?
par Crapaud dingue (90 points)
Gérer la toxicité Oui, interdire toute expérience qui sorte des sentiers battus, non.
Sinon on interdit l'alcool, le jeu, la pensée double etc...
par Crapaud dingue (90 points)
Or pas de statistiques si pas de jeu, pas de ,paradoxe français du Sud Ouest si pas de vin...
par Crapaud dingue (90 points)
La disparition de la conscience de la. Complexité...
+1 vote
par Tétard déjanté (29 points)
Autre question: dans un univers hybride humain+IA, dans quelle mesure le contact continu entre l'humain et l'IA va faire perdre à l'humain son humanité et son sens commun, ses stimulis dans ses interactions quotidiennes avec le monde étant décidés par des algorithmes filtrant suivant des critères qui ne  eux mêmes basés sur une logique peu humaine? L'input de sociologues et de psychologues sur ces aspects pourraient être un bonne contribution au débat d'idée...
par Crapaud dingue (90 points)
L'être humain est passionnable, passionnant et passionné. L'usage des neuros-IA sciences ne fait qu'accroître l'écart a l'équilibre.
Tout comme l'usage de films edt deconseille  pour les moins de nn ans, il faut penser l'usage de l'IA en fonction de publics armes ou non.
par Crapaud dingue (90 points)
L'être humain est passionnable, passionnant et passionné. L'usage des neuros-IA sciences ne fait qu'accroître l'écart a l'équilibre.
Tout comme l'usage de films edt deconseille  pour les moins de nn ans, il faut penser l'usage de l'IA en fonction de publics armes ou non.  C'est le croisement entre liberté ,& sécurité.
par Crapaud dingue (90 points)
Mais une nouvelle éducation aux sens communs devient obligatoire.
0 votes
par Batracien fou (260 points)

Stefana BROADBENT, anthropologue à l’école de Polytechnique de Milan, a exposé des éléments de réponse à l’Académie des sciences : « Entre maîtrise et dépossession, l’IA au service au service d’une cognition distribuée » (c’est la 2e vidéo et ça commence à 47:20)

Sur la base de ses études et ceux de ses collègues, il y a un paradoxe :

  1. le numérique est vécu par ses utilisateurs comme un espace de choix et de pouvoir agir.
  2. les chercheurs de ces études pointent une exploitation massive des données de l’attention (ex: temps passé sur une page), des contenus et à une opacité systématique des objectifs

Pour Stefana, la préoccupation des utilisateurs commence à apparaître, lorsque que les « algorithmes » s’accompagnent d’un pouvoir « bureaucratique » qui peut prendre une décision critique sur la vie d’individu. Cette anthropologue prend cet exemple qui a eu lieu en 2020 en Angleterre :

  1. Au moment du BAC, les épreuves ont été annulés à cause du COVID : les notes des épreuves du BAC n’étaient donc plus le critère pour admis dans une université.
  2. Pour apporter une solution, il était au départ prévu que la note finale serait basée sur les notes scolaires et les recommandations des professeurs.
  3. Cependant, le ministère de l’éducation a décidé qu’il fallait prendre d’autres critères, pour homogénéiser la comparaison d’étudiants issus d’établissements différents. L’algorithme qui a été retenu était celui basé sur la taille du lycée: les notes des étudiants, dans les établissements ayant un grand nombre d’élèves, ont donc été ajusté vers le bas. Ces établissements, étant situés dans les milieux les plus défavoriser, a été perçu comme injuste et une réaction immédiate s’en est suivie.
  4. D’importantes manifestations ont eu lieu et ont finalement mis un terme à ces résultats, pour revenir à un retour de la situation décrite au point 2.

La chercheuse pose donc la question « Comment un individu peut réagir ou s’approprier de certains de ces éléments ? ». Elle cite Mozilla Foundation travaille sur une IA personnelle, qui interagirait avec des systèmes « bureaucratiques » pour interroger et éventuellement contrer certaines décisions. Une autre piste serait de combiner l’IA avec les individus: la possibilité de faire collaborer un grand nombre de personnes, pour générer des contenus de connaissances plus vastes, plus diversifiées.

Selon cette professeur, le mythe de l’IA n’est donc pas dans celui du « monstre », de cette intelligence substitutive qui remplacerait le cerveau humain, mais celui d’un système prédictif sans appel: celui des choix algorithmiques arbitraires et indiscutables. Construisons donc un autre mythe: celui des d’une participation citoyenne, qui serait aidée par des techniques de l’intelligence artificielle, comme celle du « machine learning » par exemple.

Bienvenue à toi
Crapaud Fou

Vous avez une idée folle après avoir lu le manifeste du Crapaud Fou? Proposez-la ici et recueillez les opinions des autres crapauds fous.

Rejoignez aussi la mare aux crapauds pour des discussions en direct.
...