Deprecated: Function create_function() is deprecated in /srv/data/web/vhosts/pfd.association-aristote.fr/htdocs/wp-content/plugins/LayerSlider/wp/widgets.php on line 4

Deprecated: The each() function is deprecated. This message will be suppressed on further calls in /srv/data/web/vhosts/pfd.association-aristote.fr/htdocs/wp-content/plugins/js_composer/include/classes/core/class-vc-mapper.php on line 111

Deprecated: Function create_function() is deprecated in /srv/data/web/vhosts/pfd.association-aristote.fr/htdocs/wp-includes/pomo/translations.php on line 208
Jeudi 15 novembre 2018 : L’IA : un buzzword du moment, ou une avancée majeure pour le futur ? - Aristote
Suivez-nous

Jeudi 15 novembre 2018 : L’IA : un buzzword du moment, ou une avancée majeure pour le futur ?

Image d'un bras de robot avec celui d'un humain

15 Nov Jeudi 15 novembre 2018 : L’IA : un buzzword du moment, ou une avancée majeure pour le futur ?

Depuis quelques temps, l’intelligence artificielle devient pour beaucoup la solution magique à tous les problèmes.
Est-ce raisonnable ? Est-ce un effet de mode ? Est-ce une réalité ? Que penser de cette percée de l’IA dans notre quotidien ?

C’est pour tenter de faire la part des choses dans ce contexte que l’Association Aristote a décidé de proposer une journée dédiée à ce thème.

Laurence Devillers, chercheuse à Limsi, donne une définition claire de l’IA : « ensemble de théories, d’algorithmes et de logiciels, qui ont pour objectif de simuler des capacités cognitives de l’homme »

Cette technologie informatique n’est pas nouvelle. Elle a été introduite dès 1955 par deux Docteurs en mathématiques et en sciences, John McCarthy et Marvin.

On segmente l’IA en deux catégories : l’IA forte et l’IA faible.

La première répond à des capacités cognitives égales ou supérieures à l’être humain, à une conscience de soi et à la possibilité d’éprouver des sentiments. On est bien loin d’atteindre ce stade à ce jour. L’objectif de la journée sera plutôt focalisé vers un futur plus proche, celui de l’IA faible. Elle vise à reproduire un comportement observé par un programme informatique. Elle n’est pas en mesure de produire toute seule de la connaissance.

L’intelligence artificielle est d’ores et déjà présente dans notre quotidien depuis de nombreuses années. L’IA dépend de 4 éléments que sont : l’homme, la technologie, les algorithmes, la data.

Si nous arrivons à des résultats probants aujourd’hui, c’est grâce aux travaux effectués ces dernières dizaines d’années. En effet, la puissance de calcul des calculateurs, les algorithmes, la génération des données récoltées sont suffisamment avancés pour que les résultats soient au RdV.

La journée débutera par une keynote d’un expert de l’IA. Elle se poursuivra par des exposés et/ou tables rondes sur les différents thèmes suivants :

• État de l’art et limites (Deep Learning, machine learning, systèmes experts, ….)
• Cas particuliers du Deep Learning
• Architectures & implémentation, tant hardware que software
• Data : droits d’usage, qualité de données, traitement des données
• Impact environnemental, consommation énergétique
• Explicabilité, utilité selon les domaines d’application, armée, juridique, santé, …
• Besoin de formation

La Conclusion de la journée abordera les doutes, les craintes, les risques mais aussi les opportunités à savoir saisir. Le lien de cette technologie à l’humain sera au centre des discussions pour que l’IA soit au service de l’homme et non l’inverse.

Date & Lieu

Jeudi 15 novembre 2018
8h45 – 17h30

École Polytechnique, 
Amphithéâtre Becquerel
91120 Palaiseau

Polytechnique-vue-aérienne

Tarifs

Participation aux frais :
• gratuit pour les membres d’Aristote,
• payant pour les non membres : 60 €

Inscription

Les inscriptions sont closes

Paiement

• en ligne
par chèque
à l’ordre de “Association Aristote” à remettre à l’entrée du séminaire
par virement bancaire
(IBAN : FR76 3000 4008 8600 0042 1466 411)

Une facture acquittée sera envoyée après le séminaire à chaque participant.



Organisateurs

Partenaire

logomembre_mim
logomembre_dsigoup
logopart_captronic

Programme & Actes

08h45-09h10Accueil & café
09h10-09h20Introduction de la journéeBernard Monnier
Christophe Denis
Mikael Campion
Judith Nicogossian
MIM
EDF Lab
DSI Group
Antropologue
09h20-10h00 Keynote d'introduction de la journée IALaurence Devillers Professeure en informatique appliquée aux sciences sociales, Université Paris-Sorbonne 4
10h00-10h30FastText : une bibliothèque pour intégrer et classer du texte et d'autres informations discrètesArmand Joulin Facebook
10h30-11h00 IA hybride, comment implémenter l’IA dans les projetsThierry CaminelATOS
11h00-11h20Pause café
11h20-11h50 IA, besoin, explicabilité, projets européens David SadekThales
11h50-12h10Cas particuliers du Deep LearningAlice FroidevauxQuantcube Technology
12h10-12h30 Cas particuliers du Deep LearningThierry BerthierMaitre de Conférences en Mathématique, chercheur en cybersécurité
13h00-14h00Déjeuner buffet au salon d'Honneur
14h00-14h45Explicabilité, utilité selon les domaines d’application, armée, juridique, santé, … Christophe Denis, EDF
Agnes Delaborde, LNE
Table ronde sur les aspects théoriques et besoins
Explicabilité, utilité selon les domaines d’application, armée, juridique, santé, …Bruno Teboul, AI & Blockchain du groupe GFiTable ronde sur les aspects théoriques et besoins
14h45-15h00 Explicabilité, utilité selon les domaines d’application, armée, juridique, santé, …Raphaël Canyasse, CEO AnamneseSolution de startups confronté à ce problème d'explicabilité
Explicabilité, utilité selon les domaines d’application, armée, juridique, santé, …Clodéric Mars, Craft.aiSolution de startups confronté à ce problème d'explicabilité
15h00-15h25Data : droits d'usage, qualité des données, traitement des donnéesDr Christophe RichardSanteos (Atos Worldline) - Syntec Numérique
15h25-15h50Le point de vue juridiqueMe Julia Petrelluzzi
Me Nathalie Puigserver
Doctorante en Droit et intelligence artificielle
P3B Avocats
15h50-16h10Pause café
16h10-16h30Impact environnemental, consommation énergétiqueAlice MizrahiChercheuse, unité mixte CNRS-Thales
16h30-16h40Initiative Green IAMounir Haddad
Mikael Campion
Christophe Denis
Bernard Monier
DSI group/IMT Atlantique
DSI Group
EDF Lab - ENS Paris-Saclay - Sorbonne Université
MIM
16h40-17h00 Présentations des projets à venir H2020 sur le thème de l'IAFrédéric Laurent Ministère de la Recherche
17h00-17h30 ConclusionDavid Ros Maire d'Orsay, Vice-Président du Conseil Général de l'Essonne et Vice-Président de la Communauté d'Agglomérations Paris Saclay

Résumés des Présentations

Intervention du matin
Intervention de l’après-midi

Les émotions et l'éthique dans l’IA | Laurence Devillers, Professeure en Informatique à Sorbonne-Université et chercheur au LIMSI-CNRS, équipe “Dimensions affectives et sociales dans les interactions parlées”
Photo Laurence-Devillers

La conversation pendant des interactions sociales implique naturellement l’échange de contenu linguistique, mais aussi et peut-être de façon plus importante l’expression de relations interpersonnelles, aussi bien que d’expressions d’émotion, d’affect, d’intérêt, etc.

Dans un avenir proche, la détection des émotions sera utilisée dans les systèmes de marketing, ou de santé. La robotique sociale et affective d’assistance sera déployée pour certains aspects du soin, en automatisant la surveillance, l’entraînement, la motivation et l’aspect compagnon des robots pour les personnes âgées, les enfants ou les personnes handicapées.

La projection affective sur ces objets qui vont communiquer avec nous grâce à la parole sera forte d’autant plus si on brouille les frontières entre vivant et artificiel. La manipulation douce, “le nudging”, sera aussi très efficace.

Il est nécessaire de développer des systèmes conversationnels (robots/chatbots) éthiques by design, combinant développement technologique de haut niveau et réflexions éthiques, pour assurer l’harmonie et l’acceptabilité de leurs relations avec les êtres humains.

Laurence Devillers développe le projet “Bad Nudge Bad Robot” au sein de l’institut de convergence DATAIA à Saclay, et participe au déploiement de la plateforme TransAlgo, transparence et explicabilité des algorithmes..

Laurence Devillers est Professeur d’informatique à Sorbonne Université et chercheur au LIMSI-CNRS sur les “Dimensions affectives et sociales dans les interactions parlées”.
Elle est membre de la Commission de réflexion sur l’éthique de la recherche en sciences et technologies du numérique (CERNA) d’Allistène et est impliquée dans “The IEEE Global Initiative for Ethical Considerations in the Design of Autonomous Systems” depuis 2016.

Auteure de plus de 150 publications, elle a égalementécrit le livre « Des robots et des hommes : mythes, fantasmes et réalité », (Plon, 2017) pour alerter sur l’urgence de recherches pluridisciplinaires et de considérations éthiques pour la conception des (ro)bots conversationnels.

Laurence Devillers

Impact environnemental, consommation énergétique | Alice Mizrahi, Chercheuse, unité mixte CNRS-Thales
Photo Alice-Mizrahi

Les avancées récentes en intelligence artificielle présentent un fort coût énergétique, ce qui pose problème aussi bien pour l’environnement que pour leur intégration dans les objets connectés. Ce coût énergétique est dû au fait que les algorithmes d’IA sont mis en œuvre sur des ordinateurs conventionnels, qui leur sont peu adaptés. Une piste prometteuse est de s’inspirer du cerveau pour développer de nouveaux types d’ordinateurs, moins énergivores. Dans cet exposé j’explore quelques idées clefs, incluant la proximité du calcul et de la mémoire ainsi que la gestion des erreurs et de l’aléatoire.

Alice Mizrahi travaille au sein de l’Unité Mixte de Physique CNRS/Thales, où elle recherche comment utiliser les nanocomposants pour construire des ordinateurs inspirés du cerveau et peu énergivores. Avant de rejoindre Thales, elle a effectué une thèse à l’Université Paris-Sud puis travaillé au National Institute of Standards and Technology aux Etat Unis.

Alice Mizrahi

FastText : une bibliothèque pour intégrer et classer du texte et d'autres informations discrètes| Armand Joulin, Facebook
Photo Armand-Joulin

Intervention en anglais

Dans cet exposé, je présenterai une bibliothèque pour la classification et la représentation de texte, appelée fastText.

Cette bibliothèque regroupe plusieurs de nos récents progrès en compréhension de texte. Il permet la formation rapide de modèles pouvant être ultérieurement déployés sur des téléphones mobiles..

Armand is a senior staff research scientist in the Facebook AI Research lab. Prior to this position, he was a postdoctoral fellow at Stanford University working with Fei-Fei Li and Daphne Koller. He did his PhD in INRIA and Ecole Normale Superieure, under the supervision of Francis Bach and Jean Ponce. He did his undergrad at Ecole Polytechnique. His subjects of interest are machine learning, computer vision and natural language processing.

Armand Joulin

Cas particuliers du Deep Learning |Alice Froidevaux, Quantcube Technology
Photo Alice-Froidevaux

QuantCube est une Fintech créé en 2013 qui analyse les données alternatives pour la création d’indicateurs macro-économiques et financiers.

La start-up est notamment spécialisée dans l’analyse de texte, d’images et de séries temporelles utilisant différentes méthodes d’intelligence artificielle.
Lors de cette présentation nous mettrons en avant le potentiel de l’utilisation de données alternatives pour la finance et l’économie et illustrerons nos propos avec des cas d’application en analyse d’images satellites..

Alice Froidevaux, Data Scientist chez QuantCube Technology en charge de la mise en place de modèle de deep learning pour l’analyse d’images satellite.

Alice Froidevaux

Sécurité de l'IA et apport de l'IA à la sécurité| Thierry Berthier, Maitre de Conférences en Mathématique, chercheur en cybersécurité
Photo Thierry-Berthier

Nous traiterons de l’apport de l’IA dans la détection en amont des cyberattaques.

De l’automatisation de la détection et de la réponse à incidents.

Sécurité de l’IA, attaques “FDIA” sur des composant de Machine Learning, architectures de données fictives immersives.

Thierry Berthier est chercheur et consultant en cybersécurité & cyberdéfense.
Docteur en mathématiques (cryptographie et théorie des nombres), il enseigne la sécurité numérique à l’Université et est chercheur associé au CREC Saint-Cyr.
Membre actif de la Chaire de cyberdéfense Saint-Cyr, de l’Institut Fredrik Bull et de plusieurs think tank français, il codirige le groupe « Sécurité – Intelligence Artificielle » du Hub national France IA qui travaille sur la sécurité de l’intelligence artificielle et les apports de l’IA en cybersécurité.
Ses recherches s’appliquent aux stratégies algorithmiques et à la détection automatique des architectures de données fictives utilisées en phase initiale de cyberattaque.
Co-auteur du livre « From Digital Traces to Algorithmic Projections » publié aux éditions ISTE & Elsevier, il a défini les nouveaux concepts de projection algorithmique d’un individu, de niveau d’ubiquité et de consentement algorithmique.”

Des traces numériques aux projections algorithmiques« Sécurité-IA » du Hub FranceIA

Thierry Berthier

IA hybride, comment implémenter l’IA dans les projets| Thierry Caminel, Atos
Photo Thierry-Caminel

Les récents et fantastiques progrès du Deep Learning ne doivent pas nous faire oublier que d’autres classes d’algorithmes existent. L’avenir est sans doute à des formes d’hybridation, en particulier entre des technologies de Machine Learning et celles de l’IA symbolique. Nous aborderons dans cette présentation des tendances et approches pragmatiques pour cette hybridation.

Thierry Caminel est le leader de la communauté des Experts en Intelligence Artificielle d’Atos et membre de la communauté scientifique. Il a occupé diverses responsabilités techniques dans des startups, des PME et finalement à Atos, notamment dans les domaines de l’IA, des systèmes embarqués et de l’Internet des objets.

Thierry Caminel

Architectures & implémentation, tant hardware que software | Frédéric Blanc, Kalray
Photo Frédéric-Blanc

Kalray est une entreprise française qui commercialise des puces manycoeurs.
Elle est le pionnier des processeurs pour les nouveaux systèmes intelligents, notamment dans le domaine de l’embarqué et des voitures autonomes.
La présentation prévue aura deux objectifs principaux : Le premier sera d’offrir une vue d’ensemble de l’architecture du MPPA et de sa roadmap; le second visera à présenter les développements dédiés à l’IA chez Kalray.

Formé au CEA Saclay, Mr Blanc a ensuite participé à la phase d’incubation puis de création de l’entreprise KALRAY. Il a participé à de nombreux développements et il est maintenant en charge de la vision par ordinateur sur les architectures KALRAY au sein de l’équipe “solutions embarquées”. Il a aussi participé activement aux premiers prototypes de CNN sur le MPPA.

Frédéric Blanc

Table ronde : Explicabilité, utilité selon les domaines d’application, armée, juridique, santé, … | Agnes Delaborde, LNE
Photo Agnes-Delaborde

Du point de vue de l’évaluateur indépendant, la capacité d’un système à expliquer ses décisions peut permettre :
1) de résoudre la problématique de la boîte noire (selon la criticité de l’application, le concepteur n’est pas toujours dans l’obligation d’ouvrir son code pour inspection),
2) de faciliter la compréhension des systèmes complexes (par exemple réseaux de neurones multi-couches) en vue d’une évaluation et d’une certification, et
3) de mettre au point des protocoles de test pertinents et adaptés (jeux de données de test représentatifs des capacités du système, interprétation des comportements de sortie).

Il est essentiel que les mécanismes d’explicabilité soient fiables et performants, et qu’ils soient élaborés de façon à correspondre tant aux capacités des développeurs qu’aux besoins des entités mises en jeu dans l’inspection et la validation de ces systèmes (pouvoirs publics, juristes, assurances, tiers évaluateurs).

Docteur en informatique de l’Université Paris-Saclay, Agnes Delaborde a rejoint le LNE en 2017 en tant que chercheur afin de développer des méthodes d’évaluation pour la robotique (sociale, industrielle, agricole…) et pour tous systèmes de traitement de données et/ou utilisant de l’Intelligence Artificielle. Ses recherches concernent tant des questions de sécurité des systèmes, que de performance ou d’acceptabilité.

Agnes Delaborde

Table ronde : Explicabilité, utilité selon les domaines d’application, armée, juridique, santé, … | Bruno Teboul, Groupe GFI
Photo Bruno-Teboul

Les succès de l’apprentissage machine automatique, de l’apprentissage profond… liés à l’essor de l’approche connexionniste en IA (vs IA Symbolique) nous conduit au développement, d’applications en IA de plus en plus rapide, robustes et autonomes. Ces systèmes complexes sont capables de traiter une multitude d’informations visuelles, sonores, lexicales, sémantiques et établir des inventaires de correspondances congruents entre les éléments et situations réels et ceux représentés au sein des machines comme chez les humains.

Dans ce contexte, les machines sont capables de très rapidement et avec un taux d’erreur très faible de décider et le cas échéant d’agir dans des délais très rapides. Ces dépassements des simples capacités cognitives humaines engendrent la création de machines autonomes, dont le contrôle ne peut être fait qu’à postériori, dans des temps compatibles avec ceux de la lenteur de l’appareillage informatique et/ou cognitif humain.

Ce pose alors le problème du blocage de l’efficacité des systèmes par l’impossibilité que l’homme a de faire confiance à la machine numérique (“black box society”). On connait ce type de situation dans le domaine du véhicule autonome, du nanotrading et plus encore dans celui des SALA (systèmes d’armes létales autonomes).

La seule solution est une forme d’apprentissage collaboratif, partenarial, de l’homme et de la machine, dans laquelle la machine numérique est capable d’expliquer à l’homme le sens de ses décisions et les limites de son autonomie ; ce que ne savent pas faire les systèmes actuels. De tels systèmes symbiotiques (HAT pour Human-Autonomy Teaming) nécessitent une Intelligence Artificielle capable de s’expliquer.

“L’explicabilité” du traitement algorithmique et du fonctionnement de l’IA deviennent tout l’enjeu de la confiance, de l’éthique et de la sécurité numérique. Les machines décisionnelles, de contrôle, autonomes, devront alors s’inscrire dans un projet global d’intégration bidirectionnelle hommes-machines, de type XAI (Explainable Artificial Intelligence). )

Diplômé d’une maîtrise de philosophie, d’un DEA de Sciences Cognitives de l’Ecole polytechnique, d’un Executive MBA à HEC-UCLA, d’une Thèse de Doctorat de l’Université Paris-Dauphine. Bruno a passé plus de 20 ans à des postes de direction marketing et digitale de grands groupes et des startups. Cofondateur de la Chaire Data Scientist de l’Ecole Polytechnique (Keyrus, Thales et Orange).
Il fut également le cofondateur et le premier directeur de l’Institut des Hautes Etudes à la Transition Numérique (IHETN) de l’Université de Technologie de Compiègne (UTC), où il est actuellement Chercheur Associé au laboratoire Costech (Complexités, Réseaux et Innovation).
Chez Gfi Informatique, il est charge depuis le mois de juin 2018, de définir au niveau groupe, la stratégie, les offres et les partenariats relatifs à l’Intelligence Artificielle et la Blockchain. Global Practice Director, Artificial Intelligence & Blockchain du groupe GFI.

Bruno Teboul

Table ronde : Solutions de startups confronté à ce problème d'explicabilité | Clodéric Mars, craft.ai
Photo Clodéric-Mars

Clodéric Mars est le CTO de craft ai, une API d’automatisation cognitive mettant en oeuvre de l’IA explicable. Depuis plus de 10 ans, Il poursuit un objectif : permettre aux non-spécialistes de créer et de collaborer avec des Intelligences Artificielles. À l’INRIA puis chez Golaem et MASA Group il a travaillé sur des techniques d’IA explicite appliquées aux domaines du jeu vidéo, de la simulation et des effets spéciaux. En 2015, il participe à la création de craft ai et se concentre alors sur rendre le « Machine Learning » explicable et performant..

Clodéric Mars

Table ronde : Solutions de startups confronté à ce problème d'explicabilité | Raphaël Canyasse, CEO Anamnese
Photo Raphaël-Canyasse

L’idée d’Anamnèse est de poser des questions d’ordre médical à un patient comme le ferait un médecin. Le problème que l’on chercher à résoudre est le suivant : Quelle est la bonne question (suivante) à poser à un patient ? Je vais parler de système expert et de base de connaissance mais surtout de comment valider les règles du système, les connaissances de la base et comment les exploiter.

Ingénieur de l’X et diplômé du Technion, aujourd’hui CTO chez Anamnèse je m’attache à créer des algorithmes et à agréger de la connaissance pour améliorer la santé de tous.

Raphaël Canyasse

Data : droits d'usage, qualité des données, traitement des données | Dr Christophe Richard, Santeos (Atos Worldline) - Syntec Numérique
Photo Christophe-Richard

Directeur Médical chez Santeos/Atos, Directeur pédagogique à Centrale SupelecExed, Référent du Groupe de travail Données et Intelligence Artificielle en Santé au Syntec Numérique.

Dr Christophe Richard

Le point de vue juridique | Me Julia Petrelluzzi, Doctorante en Droit et intelligence artificielle
Photo Julia-Petrelluzzi

Julia Petrelluzzi est diplômée de deux Masters II en Droit à Paris I, et à l’UVSQ/ Paris-Saclay où elle poursuit une thèse sur l’intelligence artificielle et le Droit. Elle est co-auteur de l’ouvrage « L’intelligence artificielle : ses enjeux en droit civil européen », et est également membre de plusieurs initiatives et associations qui militent pour le développement d’une éthique de l’intelligence artificielle.

Me Julia Petrelluzzi

Le point de vue juridique | Me Nathalie Puigserver, P3B Avocats
photo Nathalie-Puigserver

L’IA pose de multiples défis aux juristes dont les issues sont déterminantes en termes de performances et de croissance durable de l’innovation.
Comment encadrer efficacement l’IA, sans pour autant freiner l’innovation ?
Faut-il un nouveau cadre juridique spécifique à l’IA ou des adaptations à nos règles juridiques actuelles ?

Prenons l’exemple de la data, composante essentielle de l’IA, « matière première » disponible massivement (Big data) et source importante de valorisation, dont les enjeux vont bien au-delà des données à caractère personnel qui représentent une partie seulement de la donnée utilisée.
Quel cadre juridique de la donnée devons-nous adopter dans ce contexte ?
Faut-il les libérer pour favoriser le développement de l’IA, les encadrer pour préserver le respect de la vie privée ?
Ou bien est-il possible de faire les deux en même temps ?.

Me Nathalie Puigserver

Présentations des projets à venir H2020 sur le thème de l'IA | Frédéric Laurent, Ministère de la Recherche
Photo Frédéric-Laurent

Nous présenterons les différentes opportunités de financement de travaux de RDI sur l’IA par l’Union européenne.

Ingénieur, en charge des questions européennes et en particulier des questions TIC au Ministère de la recherche depuis 8 ans.

Frédéric Laurent