Transcriptions
Note: this content has been automatically generated.
00:00:00
je comprends de français mais il faut du temps pour trouver les
00:00:03
mots en français donc vu présentées ont exposé en anglais merci infiniment pour votre
00:00:10
l'invitation ont ils vraiment pendant 9 mois de parler d'un sujet si intéressant
00:00:18
qui et l'intelligence artificielle et les questions relatives aux états la paix et à la coopération internationale
00:00:25
vous demandez pourquoi eux quelqu'un de l'unit'
00:00:30
i. par vos parents d'intelligence artificielle un
00:00:37
si je peux me permettre je vais vous expliquer pourquoi nous en tant qu'institut
00:00:44
institut dont l'objectif principal de construire un monde plus sécurisé et pur sang p.
00:00:51
examine des approches facétieux là ils se séparent
00:00:55
ce que des ornements dessus quelques et international
00:00:58
le contrôle des de l'armement a toujours été
00:01:02
poussé animé par la technologie les 50 60 ans
00:01:06
lorsque les états se sont rendu compte que cette technologie lorsque c'est utilisé
00:01:10
dans le cadre d'un conflit provoqué des dommages qui souhaiteraient éviter à l'avenir
00:01:16
les états à confirmer de politique que de réglementation de traiter
00:01:22
et de solutions et juridiquement contraignantes
00:01:25
pour réduire les conséquences néfastes de l'
00:01:28
utilisation de cette technologie pourquoi je vous dites ça parce que l'orateur précédent
00:01:34
présente un argument très valables
00:01:39
quelle suivant si on regarde ce que les états font dans le cadre de la paix et la
00:01:44
sécurité des dans le cadre des nations unies en domaine
00:01:49
de l'intelligence artificielle sait exactement ce qu'ils font
00:01:53
on pourrait croire qu'il s'agit du etation du processus par lesquels
00:01:56
sont déjà passés non faites il ya quelque chose de très nouveau
00:02:01
dans ce que font les états les états essaie de réglementer les technologies avant même le développement
00:02:07
en entier de cette technologie avant que l'on commence
00:02:12
à utiliser les capacités militaires de ces technologies par le passé
00:02:17
on a mis au point des armes nucléaires tout le monde a
00:02:20
compris que ces armes étaient mauvaises donc on a commencé un
00:02:26
de fait signer des traités de non prolifération pour réduire le risque
00:02:33
en ce concerne lit un personne ne sait exactement dans quel sens on va aller donc les états
00:02:38
font des efforts pour créer un cadre qui pourrait
00:02:42
réduire les risques grâce à un ensemble d'initiatives
00:02:47
visant les technologies qui n'existe pas vraiment pour
00:02:51
l'instant dans pendant 15 minutes de jeu avec vous
00:02:55
m'accompagner emotion voyages voyage qu'est le voyage de
00:03:01
transposition tout ce que vous avez entendu grâce aux orateurs précédents
00:03:05
et je vais vous demander de cesser de crochets tout les problèmes
00:03:10
tout les oeufs défi que vous avez entendu dans un cadre de
00:03:17
base de l'intelligence artificielle pour faire des décisions eux qui
00:03:21
affectent le violemment eux s'ils pourraient eux qu'on se permet
00:03:28
décision de d'e lancé la guerre ou non vous
00:03:33
décision critique ici nous avons affaire à des états les
00:03:39
toutes les initiatives gouvernementales eux que nous avons entendu eux ont compris qu'il faut faire quelque chose
00:03:46
l'un des risques principaux en matière de plan d'action et le suivant cette technologie
00:03:51
et développer une culture de partager deux sources ouvertes open source tout le monde peut coder
00:03:59
et il ya beaucoup d'endroits où il a très peu de surveillance de ce qui est en
00:04:04
train d'être codé donc ses modèles d'algorithmes peuvent
00:04:07
être mis à disposition peuvent être répliquer et partager ton coeur
00:04:14
dans une culture de qui et basé sur le partage d'eux
00:04:18
de connaissances essieu des codes
00:04:21
de sources ouvertes i l
00:04:27
il les important de ne pas limiter les lacs c.
00:04:33
20 siècle technologie du secteur non etat
00:04:41
l'intelligence artificielle présente des
00:04:46
offres des opportunités inoui
00:04:52
et l'intelligence du ciel pourraient eux
00:04:57
complémenter grande gamme de tâche humaine évidemment cétologie
00:05:01
impliqués contraintes et les limitations ce qui
00:05:04
concerne la transparence la fiabilité l'équité
00:05:10
nécessité de terre de porter une certaine responsabilité alors tous ces problèmes
00:05:16
lorsqu'on les transpose dans un contexte de la paix la sécurité
00:05:23
les préoccupations autour de ces
00:05:26
questions augmente de manière exponentielle prescrit
00:05:30
à l'aspect je me dis que morale politique éthique etc
00:05:42
toute l'architecture de gouvernance
00:05:44
naissante les présentes
00:05:50
faisons un projet de clôture en ce moment mon
00:05:54
institut et u n m l i
00:05:59
exception fin c la sécurité nationale installer toutes ces règles ne
00:06:03
s'applique pas lorsqu'il s'agit de la sécurité nationale
00:06:09
que ce soit le développement d'algorithmes ou tout autre chose dans qui agit de réglementaire
00:06:14
qui pourrait s'il n'ait pas complet rapidement
00:06:19
créer des lacunes potentiel pour des
00:06:23
acteurs étatiques et non étatiques
00:06:29
en fut d'un comportement inapproprié
00:06:34
qu'estce que nous voulons deviennent lorsque nous parlons
00:06:37
d'une applications militaires de l'i. a. sans être trop
00:06:42
précis je pense qu'on peut créer de grandes catégories
00:06:46
d'abord i. l'intelligence artificielle qui est utilisé
00:06:52
comme le multiplicateur de
00:06:56
le soutien à décisionnel
00:07:00
c'est le dieu de faire en sorte que l'architecture
00:07:03
militaire bénéficie d'un meilleur système de contrôle et de commandement
00:07:10
donc tout d'abord un homme
00:07:13
qui eux ne soutiennent décisionnel tant d'autres
00:07:17
catherine nous savons de TFI stabilisateur d'autonomie
00:07:23
dans ces deux catégories vous pouvez penser
00:07:26
des exemples de poursuite et d'optimiser la logistique
00:07:33
les le déploiement a forcé dans un
00:07:37
contexte militaire tout ceci est très puissant
00:07:41
quand ceci suppose que cette technologie sera utilisé en combinaison avec le
00:07:47
cerveau la puissance du c'est la puissance du cerveau humain
00:07:50
stauder l'urine association entre la théologie et l'être humain puis à la deuxième catégorie
00:07:59
d. a. en tant qu'utilisateur de l'autonomie
00:08:07
pour ce seul d'entre vous qui suivent
00:08:11
avec passion eux mes informations militaire vous avez
00:08:17
utilisation entré l'âge le rendu crème de claude guéant utilement
00:08:23
eux ne conteste pas des faits mains à l'avenir on peut prévoir
00:08:27
un scénario selon lequel au fur à mesure que la technologie devient de
00:08:30
plus en plus fiables dans la conduite de certaines tâches ces tâches pourrait
00:08:35
changer de tâches et contrôlé par un humain à des tâches autonome
00:08:41
je ne vais pas entrer dans la vie de
00:08:44
détail de la distinction entre l'automation très
00:08:48
sophistiquée et l'autonomie de l'autre côté mais les raisons de la capacité d'un système militaire
00:08:58
de s'engager et interagir avec l'environnement dans lequel
00:09:03
le système et les déployer sur la base des 5 fr
00:09:09
de ce que le fameux slogan gorbatchev s'applique également dans un contexte militaire
00:09:18
en somme le système d'os de se poser la question estce qu'il s'agit d'un champ que chez les étoiles
00:09:24
également d'eux détruire ou estce qu'il s'agit d'une ambulance ceux qu'évidemment je n'ai pas le droit de les détruire
00:09:35
dans le cadre de cette concurrent stratégique entre les
00:09:38
grandes puissances ceux qui souhaitent toutes être les premiers
00:09:43
un fait quelque chose il peut toutefois unique au svalbard que
00:09:47
j'entends par là même course intégrer les a dans les 4
00:09:52
capacité militaire avant que ses capacités militaires ne soit totalement fiable
00:09:58
et avant que les 4 de gouvernance
00:10:01
et gouvernementale ne soit totalement développer et très
00:10:07
ce sont des questions très clair immixtion d
00:10:13
dans domaine civil les questions autour de
00:10:18
l'i. a. et comment faire en sorte que les avantages de l'application de
00:10:23
l'utilisation de l'i. a. soient répartis de manière équitable de partout dans la société
00:10:31
on peut créer deux catégories d'état en ce qu'enseigne le développement
00:10:37
de l'i. a. les états qui sont des meneurs sont à la pointe
00:10:41
du développement de l'i. a. et d'autres c'est à qui ils
00:10:47
sont moins avancés technologiquement mais qui pourraient
00:10:50
bénéficier des progrès effectués par les premiers états
00:10:57
évidemment les incitations sont très différentes premièrement il faut garantir que
00:11:03
tout 4 de gouvernance ceux qui soit conçu ne soit pas un frein aux progrès de l'
00:11:10
autre côté entraider on ne veut même pas en
00:11:12
entendre parler l'intelligence artificielle ne peut pas à eux
00:11:18
être intégrés dans des systèmes d'armes pascal quelque soit le niveau de
00:11:23
sophistication de technologie et ceci serait immoral
00:11:26
et contraire à la dignité i. virgule mène
00:11:29
ce qui a beaucoup de concessions qui entrent en ligne de compte attend les considérations
00:11:34
techniques cette question que je souhaitais c'est le point que je souhaitais
00:11:40
le v. t. liée au point ne précisait pas vote suivant
00:11:46
c'est dire la question de la conduite du comportement humain
00:11:53
même si un opérateur disposent des compétences techniques qu'il sera difficile il
00:11:59
serait difficile de contrôler les algorithmes willy a eu des tentatives dans cette direction
00:12:06
mais le meilleurs moyens ce faux se focaliser l'utilisation
00:12:12
qu'estce que nous que les risques que ne souhaitant réduire
00:12:17
il compte réel de l'utilisation de sorte que les choses
00:12:24
puis des règlements tation eux qui sont plus douce
00:12:30
mais la question finale et toujours la même les
00:12:34
principes sont très beau mais comment les mettre en oeuvre
00:12:42
si vous voulez développer des capacités d'
00:12:45
isaac qui soient équitables le nouveau comprenant votre
00:12:50
l'objectif mais comment développer des
00:12:54
pratiques et des procédures pour eux de
00:12:58
s'assurer que vous alliez vraiment à mettre en oeuvre les grands principes en pratique
00:13:10
la conclusion j'aimerais vous de quelques mots sur ce qui
00:13:13
se passe au niveau des nations unies en matière de sécurité
00:13:18
internationales nationales et internationales nous savons que lui a beaucoup de domaines d'application
00:13:25
militaire mais les pourparlers actuel se focalise sur la partie émergée de l'espèce
00:13:33
ce qui concerne les systèmes d'armes autonome et létale
00:13:40
ce sont des systèmes d'armes qui sont destinés à eux
00:13:46
utiliser la force pour eux des frais de l'infrastructure gourgaud tués
00:13:51
et qui eux intégrer des fonctions autonome je ne
00:13:56
vais pas vous aviez avec les détails de cette discussion
00:14:05
mais un processus des nations unies et eux qui essaient de
00:14:10
minimiser ménager les l'impact de minimiser l'impact de l'humain
00:14:16
les responsables de l'organisation de ce processus de paix
00:14:21
ici évidemment encore beaucoup de du droit humanitaire international et
00:14:29
nous essayons de faire en sorte que les normes qui sont en train
00:14:32
d'être développée par l'industrie soit mise en oeuvre dans le domaine militaire
00:14:47
tant que le succès en matiere de
00:14:50
réglementation de l'application militaire de l'i. a.
00:14:55
un passe par le gouvernement les gouvernements retiennent les
00:14:59
pouvoir réglementaire mais les gouvernements ne peuvent pas adresse outre le problème tout seul
00:15:04
donc il faut trouver eux un moyens pour que les qui permettent au gouvernement d'eux
00:15:15
de plus pour que le gouvernement et
00:15:19
puissent profiter du le travail énorme qui a déjà
00:15:24
effectué dans ce domaine dans des entreprises privées merci
00:15:30
question avez vous des questions
00:15:37
c'est que dans les usines
00:15:41
sommes nous trop de nos dans l'utilisation de l'intelligence artificielle d'un contexte de la guerre
00:15:50
c'estàdire ses machines obtenons etc quand on est trop confiant je pense
00:15:56
et il ya beaucoup d'excitation et beaucoup de
00:16:02
7 les inquiétudes de facilement compréhensible concernant cette technologie
00:16:12
en temps de guerre éclair
00:16:15
nous sommes encore très loin de là et certainement qu'on arrivera jamais à ce stade
00:16:21
parce que les forces armées ne sont pas intéressé un dans le déploiement
00:16:26
de quelque chose ou dont ils ne savent pas comment ça fonctionne dans
00:16:30
et qui n'arrive pas contrôler de que ce sera très intéressant de voir
00:16:35
quel sera le juste équilibre ou quelle sera la
00:16:38
décision finale jusqu'où nous voulons pousser l'autonomie tout
00:16:42
en conservant une forme un que certaines formes
00:16:46
de contrôle merci j'ai notre question de l'assemblée
00:16:52
oui merci cette présentation
00:16:57
qu'estce qui dit qu'elle évoque les grandes préoccupations et beaucoup de prêts aux occupations
00:17:03
moi par exemple nous sommes ns sommes vraiment
00:17:06
d'un centre bataille et veut vraiment maintenant terrible
00:17:12
donc nous avons j'ai parlé tout à l'heure des risques des projets des deux de liens
00:17:20
moi ma mon grand saucisse et de créer des projets matane sans contrôle aucun qui
00:17:26
à avec qu'estce que vous êtes d'accord qu'estce qui vote grandpré occasion pour ces prochaines décennies pour moi
00:17:35
de là où je suis je pense que les données que vous voulez yunnan hélas seule plateforme
00:17:41
où les grandes puissances se rejoignent et doivent parler
00:17:45
ce qui me préoccupe le plus actuellement c. cq
00:17:51
il ya vraiment un schéma très étroit pour la discussion et
00:17:58
et il existe de toute l'risquant état poussée sur
00:18:03
le bouton a déclenché l'alarme tout cela est ignorée si
00:18:09
cela a été fait par un humain ok mais ces basée sur des informations générées par l'
00:18:13
intelligence artificielle et ça c'est un problème et pour quelles raisons que je ne connais pas
00:18:18
à ce qu'on peut mettre un individu âpre en prison ce n'est pas un problème
00:18:23
que si certaines machines s'impose pas ton problème certaines causes ces études préoccupation je pense que maintenant
00:18:30
locaux souci c'est une vision de tunnel que nous avons actuellement des décès
00:18:35
de nos états membres qui se focaliser sur ce qu'a très particuliers
00:18:40
merci g. notre question ici
00:18:46
merci pour or cette présentation sur la gouvernance vu sous l'angle monnier et
00:18:55
j'aimerais vous demandez
00:18:57
le concept de mckinley multilatéralisme un s'est affaiblie
00:19:02
ces décès des dernières années et
00:19:05
au vu de la situation comment estce que vous
00:19:11
quel et le potentiel d'après vous
00:19:17
d'eux de devenir une naine organismes et légitime
00:19:22
et suffisamment puissant pour en matière de gouvernance bien
00:19:26
oui c'était très bonne question et elle a vraiment être âprement ses doctorat
00:19:31
c clair on ne peut pas nier le fait que
00:19:35
nous ne le concept de multilatéralisme inconnu vraiment demeurant dans
00:19:39
les difficultés ces dernières décennies voire même ces 4 derniers
00:19:44
mois et dès lors il ya des indications très clair que
00:19:49
je ne sais pas là il faut pas dire que l'o. n.
00:19:51
u. e. sera le forum l'eau dans le poker et l'a
00:19:58
traité globale sur les apports est signé ce hélas je ne pense pas
00:20:01
vraiment le moment historique de faire toutefois le mieux reste là l'unique platform
00:20:10
or nous ou avec un auteur à un nombre d'états membres aussi grand donc
00:20:17
jean monnet et nous pourrons nous avons tous les modalités de dire que tout
00:20:22
ce qui aime pas traitée va bien et portait un grand travail à faire
00:20:26
nous avons beaucoup de doutes i. 12 deux
00:20:30
donc offre de construire des capacités qui ne sont pas
00:20:34
contraignante au niveau juridique aimer politiquement oui elle le nez
00:20:39
pourrait le faire et pourrait utiliser en fin de compte les outils et non qu'elle a sa disposition
00:20:46
et les outils colonne utilise actuellement commencer par les impôts sur les armes conventionnelles ou
00:20:50
non sont créées pour développer une seule chose un protocole légalement contraignant dans le menu
00:20:58
à a beaucoup à offrir il s'agit juste voir ce qui convient à la situation donnée merci beaucoup