{"id":64825,"date":"2019-04-29T13:59:27","date_gmt":"2019-04-29T17:59:27","guid":{"rendered":"https:\/\/isarta.com\/infos\/?p=64825"},"modified":"2019-07-12T11:50:20","modified_gmt":"2019-07-12T15:50:20","slug":"le-risque-algorithmique-est-un-sujet-de-plus-en-plus-important-mais-il-nest-pas-encore-compris-par-les-entreprises","status":"publish","type":"post","link":"https:\/\/isarta.com\/infos\/le-risque-algorithmique-est-un-sujet-de-plus-en-plus-important-mais-il-nest-pas-encore-compris-par-les-entreprises\/","title":{"rendered":"Risque algorithmique : comment g\u00e9rer ce nouveau risque \u00e0 l&rsquo;\u00e8re de l&rsquo;intelligence artificielle ?"},"content":{"rendered":"<div id=\"attachment_64826\" style=\"width: 856px\" class=\"wp-caption aligncenter\"><img aria-describedby=\"caption-attachment-64826\" loading=\"lazy\" class=\"wp-image-64826\" src=\"https:\/\/isarta.com\/infos\/wp-content\/uploads\/2019\/04\/Michel-Albo-Intelligence-artificielle-300x213.png\" alt=\"\" width=\"846\" height=\"601\" srcset=\"https:\/\/isarta.com\/infos\/wp-content\/uploads\/2019\/04\/Michel-Albo-Intelligence-artificielle-300x213.png 300w, https:\/\/isarta.com\/infos\/wp-content\/uploads\/2019\/04\/Michel-Albo-Intelligence-artificielle.png 714w\" sizes=\"(max-width: 846px) 100vw, 846px\" \/><\/p>\n<p id=\"caption-attachment-64826\" class=\"wp-caption-text\"><em><span style=\"font-size: 12px;\">Michael Albo : \u00ab\u00a0On va vers des algorithmes de plus en plus complexes \u00e0 interpr\u00e9ter pour des humains. \u00c7a veut dire qu&rsquo;on est en train de perdre le contr\u00f4le de ce que font ces mod\u00e8les\u00a0\u00bb.<\/span><\/em><\/p>\n<\/div>\n<p><span style=\"color: #999999; font-size: 12px;\">27 avril 2019<\/span><\/p>\n<p><span style=\"color: #000080; font-size: 20px;\"><strong>Les \u00c9v\u00e9nements Les Affaires organisent le 7 mai prochain, en partenariat avec Isarta, <span style=\"color: #3366ff;\"><a style=\"color: #3366ff;\" href=\"https:\/\/www.lesaffaires.com\/evenements\/conferences\/intelligence-artificielle\/606742?utm_campaign=intelligenceartificielle_387719&amp;utm_medium=email&amp;utm_source=ISARTAparevt\" target=\"_blank\" rel=\"noopener\">une conf\u00e9rence d\u00e9di\u00e9e \u00e0 l&rsquo;intelligence artificielle<\/a><\/span> et \u00e0 ses apports pour les entreprises. En amont, nous avons interrog\u00e9 l&rsquo;un des intervenants,\u00a0 Michael Albo, le co-fondateur de la firme experte en science des donn\u00e9es <a href=\"https:\/\/datascienceinstitute.org\/\" target=\"_blank\" rel=\"noopener\"><span style=\"color: #3366ff;\">Data Science Institute<\/span><\/a>, \u00e0 propos de la notion \u00e9mergente de risque algorithmique. Entrevue.<\/strong><\/span><\/p>\n<p>&nbsp;<\/p>\n<h2><span style=\"font-size: 24px;\"><strong><span style=\"color: #000080;\">Peut-on d\u00e9j\u00e0 expliquer ce qu&rsquo;est le risque algorithmique ?<\/span><\/strong><\/span><\/h2>\n<p><span style=\"color: #000080;\"><strong>Michael Albo :\u00a0<\/strong><\/span>C&rsquo;est en fait le risque de ne plus \u00eatre\u00a0capable de comprendre comment la machine a pris sa d\u00e9cision, ce qui peut avoir des cons\u00e9quences r\u00e9putationnelles ou financi\u00e8res.<\/p>\n<p>Si l&rsquo;on regarde l&rsquo;\u00e9volution de l&rsquo;intelligence artificielle (IA) et de l&rsquo;apprentissage machine sur ces cinquante derni\u00e8res ann\u00e9es, on voit que l&rsquo;on s&rsquo;oriente de plus en plus vers des mod\u00e8les pr\u00e9cis. On passe d&rsquo;algorithmes qui sont extr\u00eamement interpr\u00e9tables et simples \u00e0 comprendre (\u00e0 base de r\u00e9gressions lin\u00e9aires ou d&rsquo;arbres de d\u00e9cision) \u00e0 des algorithmes nettement plus pr\u00e9cis mais moins interpr\u00e9tables.<\/p>\n<p>En effet, plus on a de la puissance de calcul, plus on va vers des algorithmes complexes \u00e0 interpr\u00e9ter pour des humains. \u00c7a veut dire qu&rsquo;on est en train de perdre le contr\u00f4le de ce que font ces mod\u00e8les.<\/p>\n<p>Il y a donc une question d&rsquo;arbitrage : vaut-il mieux un mod\u00e8le qui a 85 % de pr\u00e9cision mais qui reste interpr\u00e9table, que je comprends, ou un autre qui offre une pr\u00e9cision de 95 % mais non interpr\u00e9table ? C&rsquo;est toute la question de l&rsquo;\u00e9quilibre entre interpr\u00e9tabilit\u00e9 et pr\u00e9cision. Si je te dis par exemple, ce pont, il tient, mais je ne sais pas pourquoi. Est-ce que tu vas vouloir rouler dessus ?<\/p>\n<h2><span style=\"font-size: 24px;\"><strong><span style=\"color: #000080;\">Ce risque existe-t-il d\u00e9j\u00e0 ?<\/span><\/strong><\/span><\/h2>\n<p><span style=\"color: #000080;\"><strong>M. A. :\u00a0<\/strong><\/span>Bien s\u00fbr. En voici trois exemples concrets :<\/p>\n<ul>\n<li>En octobre 2018, Amazon a d\u00fb d\u00e9brancher son outil de recrutement IA car son algorithme d\u00e9priorisait les candidatures des femmes ! Pourquoi ? Car la culture d&rsquo;Amazon en soi est assez virile et l&rsquo;algorithme s&rsquo;est rendu compte que, au niveau de l&rsquo;analyse des performances, \u00eatre un homme \u00e9tait une variable qui renfor\u00e7ait la performance des candidats. Le probl\u00e8me, c&rsquo;est que ce n&rsquo;est pas l&rsquo;algorithme qui a tort : il s&rsquo;est bas\u00e9 sur des faits. Il n&rsquo;est pas moral mais est performant car il fait exactement ce qu&rsquo;on lui a demand\u00e9 de faire. Il a pris les candidats qui avaient le plus de chances de r\u00e9ussir au sein d&rsquo;Amazon, d&rsquo;apr\u00e8s ses donn\u00e9es !<\/li>\n<\/ul>\n<p>&nbsp;<\/p>\n<ul>\n<li>Autre exemple de risque algorithmique. En 2017, au moment des attentats \u00e0 Londres, le prix des courses Uber s&rsquo;est envol\u00e9. Les gens qui essayaient de fuir la zone des attentats se voyaient proposer pratiquement dix fois la valeur de la course normale. Cela a fait un scandale : tout le monde a accus\u00e9 Uber de vouloir profiter de la situation. Sauf que Uber n&rsquo;a rien fait, c&rsquo;est son algorithme ! Ce dernier voyait qu&rsquo;il y avait \u00e9norm\u00e9ment de demandes \u00e0 un point et il a essay\u00e9 de d\u00e9terminer une valeur de march\u00e9, c&rsquo;est-\u00e0-dire le prix jusqu&rsquo;o\u00f9 les gens \u00e9taient pr\u00eats \u00e0 payer pour fuir. Le probl\u00e8me ici, c&rsquo;est qu&rsquo;on a oubli\u00e9 de mettre des bornes, jusqu&rsquo;o\u00f9 on permet \u00e0 l&rsquo;algorithme d&rsquo;optimiser le prix des courses. On voit bien le risque de r\u00e9putation qui m\u00e8ne au risque financier.<\/li>\n<\/ul>\n<p>&nbsp;<\/p>\n<ul>\n<li>Dernier exemple avec Facebook. Que font les algorithmes qui revendent l&rsquo;audience des profils Facebook \u00e0 des annonceurs ? Ils vont analyser les profils du r\u00e9seau social et les regrouper selon un ensemble de variables, pour former des groupes aux comportements homog\u00e8nes. Ce qui int\u00e9ressent \u00e9videmment les annonceurs. Sauf qu&rsquo;un algorithme ne sait pas ce qu&rsquo;il trouve. Il a ainsi identifi\u00e9 des gens qui n&rsquo;aimaient pas les juifs. Et il s&rsquo;est mis \u00e0 vendre ce type d&rsquo;audience ! Et qui a achet\u00e9 ? Des gens d&rsquo;extr\u00eame droite qui cherchaient \u00e0 recruter pour des manifestations par exemple. Facebook s&rsquo;est donc rendu compte que l&rsquo;algorithme faisait de l&rsquo;argent avec cela. C&rsquo;est un autre cas de risque algorithmique : quand l&rsquo;algorithme marche trop bien et qu&rsquo;on ne pr\u00e9voit pas tout ce qui est possible de faire avec.<\/li>\n<\/ul>\n<p>Ce n&rsquo;est donc pas de la science fiction, on est sur des cas bien r\u00e9els. On peut aussi penser \u00e0 des risques algorithmiques bas\u00e9es sur des donn\u00e9es biais\u00e9es \u00e0 l&rsquo;origine. Exemple : un algorithme que l&rsquo;on va entra\u00eener \u00e0 apprendre \u00e0 diagnostiquer des pathologies de maladie. Si on se base sur un \u00e9chantillon de la population du Canada, l&rsquo;algorithme va faire de la m\u00e9decine de Blancs car les Canadiens sont majoritairement des descendants d&rsquo;Europ\u00e9ens blancs. Sauf que si on a une composante ethnique sur certaines maladies, comme la sarco\u00efdose, un asiatique par exemple peut \u00eatre d\u00e9favoris\u00e9 par le mod\u00e8le.<\/p>\n<h2><span style=\"font-size: 24px;\"><strong><span style=\"color: #000080;\">Ce type de cas o\u00f9 l&rsquo;humain est d\u00e9pass\u00e9 par la machine n&rsquo;est-il cependant pas l&rsquo;affaire juste de grandes entreprises ?<\/span><\/strong><\/span><\/h2>\n<p><span style=\"color: #000080;\"><strong>M. A. :\u00a0<\/strong><\/span>Non. On peut prendre le cas d&rsquo;un assureur qui fait de la tarification personnalis\u00e9e, ou d&rsquo;une banque qui fait du cr\u00e9dit hypoth\u00e9caire, en utilisant des algorithmes. Ces entreprises vont prendre\u00a0plein de variables&#8230; mais il est possible que l&rsquo;on se rende compte que ton algorithme va d\u00e9cider de ne pas accorder de pr\u00eat hypoth\u00e9caire parce que la personne en question est une femme n\u00e9e en Alg\u00e9rie et que son code postal est \u00e0 tel endroit sur l&rsquo;\u00eele de Montr\u00e9al.<\/p>\n<p>Ce sont les crit\u00e8res qu&rsquo;a choisi l&rsquo;algorithme car il a peut-\u00eatre appris que cette combinaison pr\u00e9sente un risque, car elle a g\u00e9n\u00e9r\u00e9 des d\u00e9fauts dans le pass\u00e9. Tu vois le probl\u00e8me : il est \u00e9videmment difficile de justifier ce refus sur ces crit\u00e8res.<\/p>\n<p>&nbsp;<\/p>\n<h2><span style=\"font-size: 24px;\"><strong><span style=\"color: #000080;\">Selon toi, les entreprises ont-elles conscience de ce risque ?<\/span><\/strong><\/span><\/h2>\n<p><span style=\"color: #000080;\"><strong>M. A. :\u00a0<\/strong><\/span>C&rsquo;est un sujet \u00e9mergent et les entreprises ne s&rsquo;en rendent pas encore vraiment compte, en effet. En fait, elles essaient d\u00e9j\u00e0 de v\u00e9rifier qu&rsquo;elles arrivent \u00e0 mettre en place des solutions bas\u00e9es sur de l&rsquo;IA.<\/p>\n<p>Mais c&rsquo;est un sujet qui va \u00eatre de plus en plus important, d&rsquo;autant qu&rsquo;on parle de plus en plus d&rsquo;auto ML. Autrement dit, des algorithmes qui apprennent \u00e0 apprendre tout seul. Jusqu&rsquo;\u00e0 pr\u00e9sent, tu avais des scientifiques de donn\u00e9es qui fabriquaient les mod\u00e8les. Il y avait donc des humains pour entrainer l&rsquo;algorithme. Mais avec l&rsquo;auto ML, c&rsquo;est l&rsquo;IA qui code elle m\u00eame\u00a0 l&rsquo;algorithme. Avec le risque pour les scientifiques de donn\u00e9es de ne plus savoir ce qu&rsquo;ils ont cr\u00e9\u00e9.<\/p>\n<p>Petite pr\u00e9cision d&rsquo;ailleurs sur les termes algorithme et mod\u00e8le.\u00a0L&rsquo;algorithme, c&rsquo;est ce qui produit le mod\u00e8le. Et le mod\u00e8le, c&rsquo;est ce qu&rsquo;on va utiliser concr\u00e8tement. On parle par exemple d&rsquo;un mod\u00e8le de tarification. C&rsquo;est le r\u00e9sultat du processus d&rsquo;apprentissage effectu\u00e9 par l&rsquo;algorithme.<\/p>\n<p>&nbsp;<\/p>\n<h2><span style=\"font-size: 24px;\"><strong><span style=\"color: #000080;\">Quelles sont alors les solutions pour augmenter la transparence de ces bo\u00eetes noires que sont ces algorithmes ?<\/span><\/strong><\/span><\/h2>\n<p><span style=\"color: #000080;\"><strong>M. A. :\u00a0<\/strong><\/span>De\u00a0nouveaux m\u00e9tiers vont tout simplement appara\u00eetre et vont devoir \u00eatre form\u00e9 : des sp\u00e9cialistes de l&rsquo;audit algorithmique. Des personnes capables d&rsquo;auditer et d&rsquo;interpr\u00e9ter les r\u00e9sultats d&rsquo;un mod\u00e8le et de dire s&rsquo;il est conforme, pas juste qu&rsquo;il fait gagner des dollars, mais aussi s&rsquo;il ne pr\u00e9sente pas de risque r\u00e9glementaire ou de r\u00e9putation pour l&rsquo;entreprise. C&rsquo;est un m\u00e9tier qui va prendre de plus en plus de place.<\/p>\n<p>Les auditeurs, en soi, existent d\u00e9j\u00e0. Regardons les \u00e9tats financiers d&rsquo;une compagnie. C&rsquo;est un algorithme\u00a0d\u00e9terministe : tu lui fournis des donn\u00e9es en entr\u00e9e et il va te fournir une analyse en sortie. C&rsquo;est facile \u00e0 auditer car la m\u00eame donn\u00e9e en entr\u00e9e va toujours te fournir le m\u00eame r\u00e9sultat en sortie. Sauf que c&rsquo;est diff\u00e9rent avec un algorithme apprenant : chaque fois que tu vas le r\u00e9entra\u00eener, il va changer. Le comportement de l&rsquo;algorithme \u00e9volue dans le temps en fonction des donn\u00e9es fournies.<\/p>\n<p>Il faut donc passer d&rsquo;un audit ponctuel \u00e0 un audit en continu. Et se doter d&rsquo;outils en cons\u00e9quence qui vont superviser ces mod\u00e8les.<\/p>\n<h2><span style=\"font-size: 24px;\"><strong><span style=\"color: #000080;\">Avez-vous des demandes pour ce type de prestation ?<\/span><\/strong><\/span><\/h2>\n<p><span style=\"color: #000080;\"><strong>M. A. :\u00a0<\/strong><\/span>On n&rsquo;a pas vraiment de demande en ce sens, c&rsquo;est un sujet \u00e9mergent. On est encore dans la phase d&rsquo;explication du pourquoi c&rsquo;est important de prendre ce risque en consid\u00e9ration. Et pourquoi les auditeurs internes doivent se former.<\/p>\n<p>Nous, on con\u00e7oit des mod\u00e8les et on offre cette prestation d&rsquo;audit algorithmique. On travaille aussi \u00e0 former les futurs sp\u00e9cialistes au sein des entreprises. Car il faut bien voir que le travail n&rsquo;est pas fini quand l&rsquo;algorithme est mis en production. C&rsquo;est justement l\u00e0 o\u00f9 les choses s\u00e9rieuses commencent ! Car le mod\u00e8le, il est vivant.<\/p>\n<p>Souvent les entreprises ne budg\u00e9tent pas d&rsquo;effort une fois que le mod\u00e8le est mis en production. C&rsquo;est une erreur. Aujourd&rsquo;hui, on comprend qu&rsquo;il faut une gouvernance des donn\u00e9es. Peut-\u00eatre que dans quelques ann\u00e9es, on comprendra qu&rsquo;il faut aussi une gouvernance des algorithmes.<\/p>\n<p>Apr\u00e8s, cela d\u00e9pend aussi bien entendu de la\u00a0place de l&rsquo;algorithme dans l&rsquo;organisation et son mod\u00e8le d&rsquo;affaires.<\/p>\n<h2><\/h2>\n<h2><span style=\"font-size: 24px;\"><strong><span style=\"color: #000080;\">Comment et qui forme-t-on justement \u00e0 l&rsquo;audit algorithmique ?<\/span><\/strong><\/span><\/h2>\n<p><span style=\"color: #000080;\"><strong>M. A. :\u00a0<\/strong><\/span>On peut former soit ceux qui codent les mod\u00e8les, les scientifiques de donn\u00e9es.\u00a0On va travailler avec eux sur des librairies d&rsquo;audit algorithmique. On va les aider \u00e0 utiliser des algorithmes&#8230; qui vont analyser d&rsquo;autres algorithmes !<\/p>\n<p>Mais nous, on pense que ce qui serait n\u00e9cessaire, c&rsquo;est de former les auditeurs eux-m\u00eames, ceux qui g\u00e8rent le contr\u00f4le interne ou la conformit\u00e9. Alors, certes, on les trouve plut\u00f4t dans les grandes entreprises ou les entreprises financi\u00e8res qui ont une culture du risque et de la conformit\u00e9. Mais on se dit que tu ne peux pas \u00eatre le contr\u00f4leur, celui qui fait le mod\u00e8le et le contr\u00f4l\u00e9.<\/p>\n<p>Il faut bien comprendre que c&rsquo;est un r\u00f4le important car il a une responsabilit\u00e9 pour prot\u00e9ger diff\u00e9rentes personnes de l&rsquo;entreprise des risques algorithmiques :<\/p>\n<ul>\n<li>les dirigeants, pour \u00e9viter d&rsquo;engager leur responsabilit\u00e9<\/li>\n<li>les actionnaires, pour garantir les actifs de la compagnie<\/li>\n<li>les employ\u00e9s, pour s\u00e9curiser l&rsquo;usage de l&rsquo;IA au niveau des op\u00e9rations<\/li>\n<li>Et les clients, pour \u00e9viter un mauvais usage des donn\u00e9es<\/li>\n<\/ul>\n<div class=\"brdr3\"><\/div>\n<p style=\"text-align: center;\"><span style=\"font-size: 20px;\">Le sujet vous int\u00e9resse ?<\/span><\/p>\n<p style=\"text-align: center;\"><span style=\"font-size: 20px;\">Ne manquez pas la conf\u00e9rence des Affaires sur l&rsquo;intelligence artificielle le 7 mai prochain\u00a0<\/span><span style=\"font-size: 20px;\">et p<\/span><span style=\"color: #000080;\"><span style=\"color: #333333;\">rofitez de\u00a0<\/span><a href=\"https:\/\/www.lesaffaires.com\/evenements\/conferences\/intelligence-artificielle\/606742?utm_campaign=intelligenceartificielle_387719&amp;utm_medium=email&amp;utm_source=ISARTAparevt\" target=\"_blank\" rel=\"noopener\"><strong><span class=\"s1\">30% de rabais <\/span><\/strong><\/a><span class=\"s1\" style=\"color: #333333;\">sur les prix r\u00e9guliers en utilisant le code<\/span><strong><span class=\"s1\"> 1ISARTA\u00a0<\/span><\/strong><\/span><\/p>\n<p><a href=\"https:\/\/www.lesaffaires.com\/evenements\/conferences\/intelligence-artificielle\/606742?utm_campaign=intelligenceartificielle_387719&amp;utm_medium=email&amp;utm_source=ISARTAparevt\"><img loading=\"lazy\" class=\"aligncenter wp-image-64895\" src=\"https:\/\/isarta.com\/infos\/wp-content\/uploads\/2019\/04\/Banniere_600x390_ISARTA_Intelligence-artificielle-300x195.jpg\" alt=\"\" width=\"728\" height=\"473\" srcset=\"https:\/\/isarta.com\/infos\/wp-content\/uploads\/2019\/04\/Banniere_600x390_ISARTA_Intelligence-artificielle-300x195.jpg 300w, https:\/\/isarta.com\/infos\/wp-content\/uploads\/2019\/04\/Banniere_600x390_ISARTA_Intelligence-artificielle.jpg 600w\" sizes=\"(max-width: 728px) 100vw, 728px\" \/><\/a><\/p>\n<div class=\"brdr3\"><\/div>\n<div class=\"likebtn_container\" style=\"clear:both;text-align:center;\"><!-- LikeBtn.com BEGIN --><span class=\"likebtn-wrapper\"  data-identifier=\"post_64825\"  data-site_id=\"5cc1ecd16fd08b776710d1e9\"  data-theme=\"drop\"  data-btn_size=\"100\"  data-icon_l=\"false\"  data-icon_d=\"false\"  data-icon_l_url=\"https:\/\/isarta.com\/infos\/wp-content\/uploads\/2019\/04\/happy.png#64794\"  data-icon_d_url=\"https:\/\/isarta.com\/infos\/wp-content\/uploads\/2019\/04\/sleep.png#64796\"  data-icon_size=\"58\"  data-icon_l_c=\"#771414\"  data-bg_c=\"#ffffff\"  data-bg_c_v=\"#ffffff\"  data-brdr_c=\"#ffffff\"  data-f_size=\"11\"  data-f_family=\"Tahoma\"  data-counter_fs=\"b\"  data-lang=\"fr\"  data-ef_voting=\"wobble\"  data-dislike_enabled=\"false\"  data-counter_type=\"percent\"  data-counter_show=\"false\"  data-tooltip_enabled=\"false\"  data-tooltip_like_show_always=\"true\"  data-white_label=\"true\"  data-i18n_like=\"Aimer \/ Partager\"  data-i18n_dislike=\"Pas aim\u00e9\"  data-style=\"\"  data-unlike_allowed=\"\"  data-show_copyright=\"\"  data-item_url=\"https:\/\/isarta.com\/infos\/le-risque-algorithmique-est-un-sujet-de-plus-en-plus-important-mais-il-nest-pas-encore-compris-par-les-entreprises\/\"  data-item_title=\"Risque algorithmique : comment g\u00e9rer ce nouveau risque \u00e0 l&#039;\u00e8re de l&#039;intelligence artificielle ?\"  data-item_image=\"https:\/\/isarta.com\/infos\/wp-content\/uploads\/2019\/04\/Michel-Albo-Intelligence-artificielle.png\"  data-item_date=\"2019-04-29T13:59:27-04:00\"  data-engine=\"WordPress\"  data-plugin_v=\"2.6.54\"  data-prx=\"https:\/\/isarta.com\/infos\/wp-admin\/admin-ajax.php?action=likebtn_prx\"  data-event_handler=\"likebtn_eh\" ><\/span><!-- LikeBtn.com END --><\/p>\n<hr size=\"3\"><\/div>\n","protected":false},"excerpt":{"rendered":"<p>Les \u00c9v\u00e9nements Les Affaires organisent le 7 mai prochain, en partenariat avec Isarta, une conf\u00e9rence d\u00e9di\u00e9e \u00e0 l&rsquo;intelligence artificielle et \u00e0 ses apports pour les entreprises. En amont, nous avons interrog\u00e9 l&rsquo;un des intervenants,\u00a0 Michel Albo, le co-fondateur de la firme experte en science des donn\u00e9es Data Science Institute, \u00e0 propos de la notion \u00e9mergente de risque algorithmique. Entrevue.<\/p>\n<div class=\"likebtn_container\" style=\"clear:both;text-align:center;\"><!-- LikeBtn.com BEGIN --><span class=\"likebtn-wrapper\"  data-identifier=\"post_64825\"  data-site_id=\"5cc1ecd16fd08b776710d1e9\"  data-theme=\"drop\"  data-btn_size=\"100\"  data-icon_l=\"false\"  data-icon_d=\"false\"  data-icon_l_url=\"https:\/\/isarta.com\/infos\/wp-content\/uploads\/2019\/04\/happy.png#64794\"  data-icon_d_url=\"https:\/\/isarta.com\/infos\/wp-content\/uploads\/2019\/04\/sleep.png#64796\"  data-icon_size=\"58\"  data-icon_l_c=\"#771414\"  data-bg_c=\"#ffffff\"  data-bg_c_v=\"#ffffff\"  data-brdr_c=\"#ffffff\"  data-f_size=\"11\"  data-f_family=\"Tahoma\"  data-counter_fs=\"b\"  data-lang=\"fr\"  data-ef_voting=\"wobble\"  data-dislike_enabled=\"false\"  data-counter_type=\"percent\"  data-counter_show=\"false\"  data-tooltip_enabled=\"false\"  data-tooltip_like_show_always=\"true\"  data-white_label=\"true\"  data-i18n_like=\"Aimer \/ Partager\"  data-i18n_dislike=\"Pas aim\u00e9\"  data-style=\"\"  data-unlike_allowed=\"\"  data-show_copyright=\"\"  data-item_url=\"https:\/\/isarta.com\/infos\/le-risque-algorithmique-est-un-sujet-de-plus-en-plus-important-mais-il-nest-pas-encore-compris-par-les-entreprises\/\"  data-item_title=\"Risque algorithmique : comment g\u00e9rer ce nouveau risque \u00e0 l&#039;\u00e8re de l&#039;intelligence artificielle ?\"  data-item_image=\"https:\/\/isarta.com\/infos\/wp-content\/uploads\/2019\/04\/Michel-Albo-Intelligence-artificielle.png\"  data-item_date=\"2019-04-29T13:59:27-04:00\"  data-engine=\"WordPress\"  data-plugin_v=\"2.6.54\"  data-prx=\"https:\/\/isarta.com\/infos\/wp-admin\/admin-ajax.php?action=likebtn_prx\"  data-event_handler=\"likebtn_eh\" ><\/span><!-- LikeBtn.com END --><hr size=\"3\"><\/div>","protected":false},"author":73,"featured_media":64826,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":[],"categories":[175,137,339,3],"tags":[738,186,705,224],"_links":{"self":[{"href":"https:\/\/isarta.com\/infos\/wp-json\/wp\/v2\/posts\/64825"}],"collection":[{"href":"https:\/\/isarta.com\/infos\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/isarta.com\/infos\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/isarta.com\/infos\/wp-json\/wp\/v2\/users\/73"}],"replies":[{"embeddable":true,"href":"https:\/\/isarta.com\/infos\/wp-json\/wp\/v2\/comments?post=64825"}],"version-history":[{"count":13,"href":"https:\/\/isarta.com\/infos\/wp-json\/wp\/v2\/posts\/64825\/revisions"}],"predecessor-version":[{"id":64865,"href":"https:\/\/isarta.com\/infos\/wp-json\/wp\/v2\/posts\/64825\/revisions\/64865"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/isarta.com\/infos\/wp-json\/wp\/v2\/media\/64826"}],"wp:attachment":[{"href":"https:\/\/isarta.com\/infos\/wp-json\/wp\/v2\/media?parent=64825"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/isarta.com\/infos\/wp-json\/wp\/v2\/categories?post=64825"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/isarta.com\/infos\/wp-json\/wp\/v2\/tags?post=64825"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}