Archives pour la catégorie INTELLIGENCE ARTIFICIELLE

Intelligence artificielle : La Chine s’apprête à dépasser les États-Unis dans le domaine de la recherche

Intelligence artificielle : La Chine s’apprête à dépasser les États-Unis dans le domaine de la recherche

Intelligence artificielle Par Amandine le 

Il y a moins de deux ans, en juillet 2017, la Chine publiait un ambitieux rapport dans lequel elle promettait de devenir le leader mondial de l’intelligence artificielle d’ici 2030. Jusqu’à présent détenu par les États-Unis, ce titre pourrait bien changer de mains plusieurs années avant la date promise.

Crédit : Pixabay

Dans une récente recherche publiée par l’Allen Institute Artificial Intelligence explique en effet que si les États-Unis sont (pour le moment) encore les maîtres en la matière, la Chine aurait déjà dépassé la concurrence sur le plan théorique. Après avoir analysé plus de deux millions d’articles universitaires publiés entre 1982 et 2018, l’étude montre ainsi que l’Empire céleste a largement rattrapé son retard, et que si les tendances actuelles se confirmaient, il culminerait bientôt en tête des études les plus citées au monde.

En 1982, les 10% d’études les plus citées dans le monde autour de l’intelligence artificielle comptaient 47% de recherches américaines, contre 0% chinoises. Une tendance qui s’est largement inversée en 2018, puisque les États-Unis stagnent aujourd’hui à 29%, tandis que la Chine a largement rattrapé son retard, en se positionnant à 26%. Si le rôle du géant asiatique dans le futur de l’intelligence artificielle ne fait aujourd’hui aucun doute, il faudra sans doute attendre 2025 pour confirmer les prévisions avancées par l’Allen Institute.

https://www.journaldugeek.com/2019/03/15/intelligence-artificielle-chine-sapprete-a-depasser-etats-unis/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+LeJournalDuGeek+%28le+Journal+du+Geek%29

Publicités

IA faible / IA forte : on en est où au fait ?

IA faible / IA forte : on en est où au fait ?

Intelligence artificielle Par Anne Cagan le 

Les IA ont énormément progressé ces dernières années. Vont-elles bientôt nous égaler ? On est allé poser la question à des acteurs du secteur.

Échecs, jeu de Go, Starcraft… Il faut le reconnaître : l’IA nous a soustrait quelques trophées ces dernières années. “La combinaison de cartes graphiques puissantes, de techniques d’apprentissage efficaces et de données disponibles a permis d’importants progrès”, confirme Reda Dehak enseignant chercheur à Epita. A tel point qu’on peut penser que les IA vont bientôt nous égaler. Mais cette impression est-elle fondée ? Pas précisément. Aussi étonnantes que soient leur facultés, les IA actuelles restent pour l’heure très éloignées de ce que les chercheurs appellent souvent l’IA forte ou générale. Autrement dit une IA centrée “sur la capacité à reproduire voire dépasser l’intelligence humaine dans toutes ses composantes”, nous explique David Deraedt, responsable avant-vente Adobe EMEA.

“On est les champions”

Il n’y a qu’à comparer la façon dont une IA et un humain apprennent à identifier un être vivant pour s’en convaincre. “On a construit des systèmes capables de reconnaître des chats avec un taux de réussite de 95% en leur fournissant 100 000 images de l’animal. Mais un enfant n’a besoin que de deux images de chat pour en reconnaître un toute sa vie, avec un taux de réussite de 100%”, nous explique le cocréateur de Siri, Luc Julia, aujourd’hui VP innovation de Samsung. L’IA n’a pas notre extraordinaire capacité à généraliser, apprendre selon des modalités très différentes et appliquer un enseignement à d’autres domaines. “Dès l’enfance, nous avons par ailleurs une capacité à nous représenter le monde et à comprendre instinctivement la physique -ex :si une balle tombe, je sais à quel endroit elle va tomber- que nous avons beaucoup de mal à intégrer à un ordinateur”, nous confie Bernard Ourghanlian, directeur Technique et Sécurité de Microsoft.

Calendrier : qui veut se lancer ?

Si impressionnante qu’elle soit, l’IA que nous avons pour le moment reste donc finalement de l’IA faible. “Elle fonctionne bien sur des tâches très précisément définies” nous explique Bern Elliott, analyste et VP du cabinet Gartner. Mais elle ne s’avère pas très futée dès qu’on sort un peu des sentiers battus. Et les chercheurs ne sont pas du tout sûrs que la situation est prête de changer.

Martin Ford qui vient de publier un recueil de 23 entretiens avec des figures éminentes du secteur (Yann LeCun, Demis Hassabis, Fei-Fei Li…) leur a demandé d’indiquer l’année au cours de laquelle, selon eux, l’IA générale aurait 50% de chances d’exister. Sur les 23 personnes interrogées, seules 18 ont accepté de se prononcer et parmi elles, 16 à la condition que leur réponse soit anonymisée. Les deux ayant accepté d’être cités sont Ray Kurzweil, qui cible la date de 2029, et Rodney Brooks qui place, lui, ses jetons sur 2200. La moyenne des 16 autres réponses se situe à plusieurs décennies de nous : en 2099.

“Pour arriver à de la vraie intelligence artificielle, il faudra recourir à d’autres méthodes que celles utilisées aujourd’hui.”

Si le calendrier est délicat à pronostiquer, c’est certainement lié au fait que la communauté de chercheur est très divisée sur la façon de parvenir à l’IA générale. Certains pensent que nous disposons d’ors déjà des outils permettant de construire une telle IA. Mais beaucoup doutent que les approches actuelles -qui fonctionnent très bien pour créer certaines IA faibles- permettent d’accoucher d’une IA forte. C’est d’ailleurs le cas de la plupart des personnes que nous avons interrogées sur ce sujet. Parmi eux, Luc Julia affirme sans ambages : “Pour arriver à de la vraie intelligence artificielle, il faudra recourir à d’autres méthodes que celles utilisées aujourd’hui. S’agira-t-il de méthodes avec de la biologie, de la physique, du quantum… sans doute un mix de tout cela. Je pense en tout cas qu’il faudra une approche multidisciplinaire.”

Si les chercheurs finissent pas trouver un jour la solution à cette énigme, l’IA générale suscitera des questions éminemment délicates. Il ne faut cependant pas que cette perspective nous fasse oublier que les IA faibles soulèvent déjà des questions économiques et sociales complexes. Nous y reviendrons dans un prochain article.

 

https://www.journaldugeek.com/dossier/intelligence-artificielle-faible-forte-on-en-est-ou/

CES 2019 : la France est assise sur un tas d’or

CES 2019 : la France est assise sur un tas d’or

Par Xavier Dalloz  |   |  1229  mots
Xavier Dalloz, expert en stratégie digitale.
Xavier Dalloz, expert en stratégie digitale. (Crédits : François Lafite)
OPINION. Il faut miser sur les innovations digitales pour reconstruire la compétitivité de la France. Par Xavier Dalloz, expert en stratégie digitale.

L’ardente obligation est, désormais, de rompre avec le passé afin de construire l’avenir que nous voulons. Nous devons, pour cela, exploiter l’apport des innovations digitales dans un monde devenu massivement interconnecté, ce qui influence directement la production de valeur. Encore faut-il combattre une vision à la fois mécaniste et uniquement monétaire. La valeur financière, humaine, est toujours le fruit d’interactions pertinentes entre des objets, des idées, des personnes, des entreprises, des organisations…

L’objectif est de faire passer la création de valeur des équipements vers les services avec l’« Internet of Me », c’est-à-dire l’implication du citoyen consommateur avec comme conséquence : repenser les métiers des entreprises pour les transformer en des entreprises plateformes. Rappelons que toute interaction ne débouche sur une transaction (et donc sur une création de valeur pour les parties prenantes) que si trois conditions sont remplies. Il faut qu’il y ait : 1) émotion, car toute décision comporte une dimension affective ; 2) communication (je n’achète un produit ou un service que si je sais qu’il existe) ; 3) confiance (j’achète l’espoir d’être satisfait). Les trois mots : émotion, relation, confiance résument les grandes tendances des innovations digitales.

L’ère des réseaux interconnectés

Outre cette facilitation des interactions, les capacités de traitement de l’information progressent constamment, parallèlement à la miniaturisation des composants. Ces tendances, qui vont de pair avec la facilitation des communications, font que tous les objets deviennent capables de traiter des données, voire de capter et de communiquer entre eux et avec nous. Le monde ne peut plus se décrire que comme un ensemble de réseaux intriqués à tous les niveaux. Ce sont des réseaux de capacités différentes, certains se bornent à transmettre des mesures et des ordres comme notre système nerveux, d’autres véhiculent des flux de données avec de très hauts débits, à l’instar de notre système sanguin transportant les substances dont notre organisme a besoin pour vivre.

Cette décentralisation massive de tout nécessite de mesurer le PEC (Productivité des échanges collaboratifs). Cet indicateur va être au coeur de la nouvelle façon de faire du business. D’où une logique de communication entre pairs, entre égaux, opposée à l’organisation centralisée, pyramidale, qui est celle de la majorité des entreprises et des administrations. Un autre facteur important est celui qui facilite les communications, au point, parfois, d’entraîner une confusion des genres. Il tient dans le mot unimédia : tous les modes d’expression, tous les produits de l’esprit humain peuvent être traduits, stockés, transformés et transmis en langage numérique. Les frontières entre marchés et métiers s’estompent, du même coup, suscitant des concurrences nouvelles. Pour comprendre ces enjeux, des innovations digitales doivent être au coeur de la reconstruction de la compétitivité de la France.

IA, blockchain… ces innovations technologiques bientôt à la portée de tous

La consumérisation de tout va redonner le pouvoir au consommateur sur des produits et services au départ destinés à un marché B2B à cause de leur coût et de leur complexité d’usage. Les progrès fulgurants de l’électronique grand public et dans la science des matériaux rendent accessibles au consommateur ou à un groupe de consommateurs, à une communauté, des objets qui ne l’étaient pas auparavant. La blockchain est probablement l’innovation la plus importante avec l’enjeu qui lui est lié : la destruction massive des tiers de confiance.

L’intelligence artificielle (IA) et l’apprentissage automatique joueront un rôle important avec leur application essentielle : l’intelligence prévisionnelle. L’utilisation de l’IA contribuera à améliorer l’expérience utilisateur et à rationaliser les processus métier. L’IA a besoin de son complément indispensable : les puces neuromorphiques. La gestion du big data généré par l’Internet des objets (IoT) de tous les actifs tout au long de la chaîne de valeur et sa traduction en termes de services. L’IA devrait s’imposer là aussi dans la lecture et le maillage de cet or numérique.

La performance énergétique et les échanges d’énergie, le bâtiment, la maison, la ville, la voiture, deviennent des acteurs énergétiques incontournables. Ils sont à la fois producteurs et consommateurs, et à la base d’échanges avec tout ce qui constitue une source d’énergie : Grid, VE, EnR… Avec l’intelligence, les interactions se font en temps réel « on » ou « off » grid avec pour objectif l’optimisation de sa consommation énergétique et la réduction de l’empreinte environnementale.

La construction et la gestion des espaces se transforment avec l’apport de l’IoT qui permet une gestion efficace de la construction en remplaçant les équipements de construction classiques par des capteurs qui fournissent une palette très large de fonctions à forte valeur ajoutée permettant notamment de vendre avant de produire. La sécurité et la sûreté englobent l’univers physique. À base d’IoT, de robotique et de blockchain. C’est aussi une nouvelle ère pour l’aide intelligente à la personne. Côté cybersécurité, le bâtiment, la maison et la voiture seront par exemple de plus en plus autonomes avec la blockchain.

Devenir un acteur majeur de cette création de valeur

La 5G à l’assaut de la mobilité et des smart cities. Elle va permettre aux villes intelligentes et aux véhicules autonomes de se connecter avec des vitesses plus élevées, une latence plus faible et une plus grande capacité. L’interface utilisateur basée sur de l’IA va être au coeur de la « moquité » (l’ubiquité en situation de mobilité) impliquant de nouveaux services et interactions avec l’écosystème de la smart city. La maintenance prédictive utilise l’IoT qui permet d’optimiser une maintenance préventive souvent imprécise et génératrice de surcoût, et assure une parfaite continuité des activités commerciales, car elle est effectuée lorsque cela est nécessaire pour maintenir un environnement fonctionnel d’une manière permanente.

L’informatique portée va avoir de plus en plus d’importance. Aujourd’hui utilisés à des fins de communication ou de divertissement, ces appareils vont en effet évoluer pour devenir de véritables assistants personnels virtuels capables de répondre à des requêtes diverses et variées et de guider les pas de l’utilisateur avec des fonctions mains libres. Au-delà, ils pourront effectuer un certain nombre de tâches aujourd’hui exécutées par les smartphones. Les nouvelles interactions hommes/ machines. Simple est trop compliqué. Tout doit devenir naturel avec l’« ATAWADAB » (AnyTime, AnyWhere, Any Device, Any Blockchain). Toute implication doit se résumer de la façon suivante : voilà ce que je veux ; fais ce que cela implique. Il faut donc passer du moteur de recherche au moteur de « trouvage ».

L’informatique quantique. Elle va tout révolutionner et il y a d’excellents experts sur ce sujet en France, notamment au CEA Leti. Le magazine Forbes titrait en 2007 : Qui peut remplacer Nokia ? On connaît la suite. Il en est de même avec les Gafam et les Natu (Netflix, Amazon, Tesla, Uber). En misant sur ces innovations digitales, les prochains Gafam et Natu doivent être français. La France a en effet tout pour être un acteur majeur de cette nouvelle création de valeurs. Nous maîtrisons l’ensemble de ces innovations digitales et nous avons l’essentiel : la créativité. Mais la condition du succès nécessite de voir grand et loin.

.

Commerce des mégadonnées (Big Data)

L’internet, vecteur de puissance des Etats-Unis ?

4 – Commerce des mégadonnées (Big Data)

Par Laurent BLOCH, le 28 avril 2018  Imprimer l'article  lecture optimisée  Télécharger l'article au format PDF

Précédemment responsable de l’informatique scientifique de l’Institut Pasteur, Directeur du Système d’Information de l’Université Paris-Dauphine. Il est auteur de plusieurs ouvrages sur les systèmes d’information et leur sécurité. Il se consacre à la recherche en cyberstratégie. Auteur de « Internet, vecteur de puissance des Etats-Unis », éd. Diploweb 2017.

Alors que l’Intelligence artificielle passionne, Laurent Bloch aborde dans ce quatrième chapitre le commerce des mégadonnées (Big Data). Il présente successivement avec pédagogie Le commerce de données et ses acteurs ; Concurrence et conflits réglementaires ; Un pays évincé de ce domaine serait condamné au déclin.

Diploweb.com, publie cet ouvrage de Laurent Bloch, L’Internet, vecteur de puissance des Etats-Unis ? pour proposer à chacun les éléments nécessaires à une juste appréciation de la situation. Ce livre est déjà disponible sur Amazon au format numérique Kindle et au format broché imprimé sur papier. Il sera publié ici sous forme de feuilleton, chapitre par chapitre, au rythme d’environ un par trimestre.

L’industrie des mégadonnées est un enjeu crucial dans la mesure où le négoce de ces données en masse est un secteur en plein essor et déjà très lucratif ; la quasi-totalité des autres secteurs de l’économie, de la santé à l’agriculture en passant par les transports, en sont affectés, en bien ou en mal selon leur capacité à s’y adapter. Les entreprises américaines géantes du cyberespace, Google, Apple, Facebook, Amazon et leurs collègues, sont à l’avant-garde de leur collecte et de leur exploitation : les Européens pourront-ils rattraper leur retard ?

4 - Commerce des mégadonnées (Big Data)
Laurent Bloch, auteur de « L’Internet, vecteur de puissance des Etats-Unis ? », éd. Diploweb via Amazon
Laurent Bloch explique avec pédagogie et précision la géopolitique de l’Internet.

Le commerce de données et ses acteurs

Les GAFA (Google Apple Facebook Amazon) sont des entreprises de première grandeur, leaders dans le cyberespace, toutes américaines. Apple est la troisième entreprise américaine par le chiffre d’affaires avec 234 milliards de dollars, juste derrière le géant de la grande distribution Walmart et le pétrolier Exxon-Mobil (au classement mondial Apple n’est qu’au 12ème rang derrière quelques pétroliers chinois et européens, Volkswagen, Samsung et d’autres, cf. le classement ici). Google est à 75 milliards de dollars, Amazon 107.

Les revenus de ces entreprises proviennent en partie (pour Apple et Amazon) ou en quasi-totalité (pour Google et Facebook) de la commercialisation de données secondaires laissées sur leurs sites par les internautes. Chaque recherche sur le site de Google, chaque bavardage sur Facebook, chaque achat sur Amazon engrange dans les greniers électroniques de ces entreprises des informations dites secondaires, éventuellement calculées à partir des méta-données (origine et destination des communications, identité des interlocuteurs, adresses réseau, dates et heures…​), relatives à vos goûts, votre résidence, vos fréquentations, etc., qui, dûment anonymisées, agrégées et soumises à des traitements statistiques, seront vendues à des agences publicitaires, des cabinets de marketing, des agences matrimoniales, des opérateurs touristiques, etc. Quant aux données primaires, ce sont la teneur de vos bavardages ou vos messages de blog, que vous aurez fournis gratuitement et qui attireront d’autant plus d’internautes que vous aurez raconté des bêtises et publié des photos scabreuses qui vous nuiront auprès des conjoints et employeurs potentiels pour le reste de votre vie en ce bas monde.

Les données, qui deviennent des informations dès lors qu’elles atteignent un esprit humain et qu’elles le modifient, comme nous l’apprend Gilbert Simondon, sont un bien en réseau, c’est-à-dire que plus elles sont « consommées » (consultées), plus leur valeur s’accroît (des données auxquelles personne n’a accès ont une valeur nulle, elles ne transmettent aucune information). Une donnée, sauf si elle est protégée par un dispositif de contrôle d’accès tel que chiffrement ou tatouage électronique, est un bien non-rival (la consommation du bien par un agent n’a aucun effet sur la quantité disponible de ce bien pour les autres individus) et non-exclusif (une fois que le bien est produit, tout le monde peut en bénéficier), en d’autres termes un bien public (cf. Wikipédia).

Il ne faudrait surtout pas croire qu’il ne s’agirait là que de l’activité habile de quelques jeunes gens décontractés autour de deux ou trois ordinateurs dans le garage de leurs parents. Ainsi on a pu lire sous la plume de Charles de Laubier (dans La Tribune du 20 février 2015) que le prélèvement de 20 % du prix de la course effectué par Uber sur la recette du chauffeur de VTC affilié relevait « du servage », mais le même supplément hebdomadaire que La Tribune a consacré à cette plate-forme d’intermédiation nous apprend quelques pages plus loin qu’Uber employait à l’époque 450 développeurs à San Francisco et à Amsterdam, qu’il faut bien rémunérer (sans oublier les autres personnels, par exemple à la hot-line). D’ailleurs ces 20 % sont à comparer aux 33 % des compagnies de taxis traditionnelles.


Un livre édité par Diploweb.com, format Kindle et broché

https://lire.amazon.fr/kp/card?asin=B06XPP1CS7&preview=inline&linkCode=kpe&ref_=cm_sw_r_kb_dp_v6r4ybVT266NR&tag=diplowebcom04-21


Uber est une plate-forme d’intermédiation parce qu’au lieu de simplement percevoir un fermage elle conserve, organise et exploite toutes les données qu’elle reçoit sur ses chauffeurs et sur ses clients. Mais c’est encore une petite entreprise comparée aux GAFA. Il faut savoir que Google ou Amazon exploitent chacun des millions de serveurs à la surface de la terre, ils achètent des centrales hydroélectriques pour en assurer le fonctionnement, ils exploitent leurs propres réseaux de fibres optiques transocéaniques. Bref, derrière le commerce éthéré et en apparence immatériel des données il y a une industrie lourde.

Concurrence et conflits réglementaires

Ce commerce de données produites gratuitement par des centaines de millions d’internautes et collectées par les entreprises qui ont créé les plates-formes géantes que sont les sites des GAFA est d’ores et déjà un axe de l’économie mondiale, mais ce n’est qu’un début parce que ce phénomène qui a commencé par concerner la publicité et le marketing étend progressivement son influence à tous les secteurs.

On sait que sous le régime de l’économie numérique, que l’on propose de baptiser iconomie, et qui est la concurrence monopolistique, le gagnant ramasse tout : Google ou Facebook disposent d’une telle avance, et partant d’une telle avance financière, qu’il n’est pas possible de créer un concurrent sur le même terrain. Mais si la locution « concurrence monopolistique » évoque la notion de monopole, elle suggère aussi celle de concurrence, parce qu’il est possible de créer une activité dans une niche de marché voisine mais séparée. C’est ainsi qu’Apple, que beaucoup croyaient condamné il y a vingt ans face à Microsoft, a su se réinventer et est aujourd’hui trois fois plus gros que son concurrent.

Un pays évincé de ce domaine serait condamné au déclin

La négociation du projet de traité de libre échange transatlantique (TAFTA/TTIP) place ces entreprises géantes de l’industrie des données dans une position à bien des égards analogue à celle des marchands britanniques d’opium qui voulaient imposer au marché chinois la commercialisation de leurs stupéfiants, d’où résultèrent au XIXe siècle les deux guerres de l’opium qui asservirent la Chine, jusqu’alors première puissance économique mondiale. De la même façon, les grands acteurs de l’Internet souhaitent accéder aux divers marchés nationaux sans en accepter les systèmes fiscaux ni en respecter les législations sur la protection des données personnelles, pour y vendre ce qui semble bien être une marchandise addictive.

La puissance publique française recueille et crée une masse considérable de données dont elle ne tire pas tout le bénéfice potentiel, ni ne les met suffisamment à la disposition du public. Il est paradoxal que pour obtenir des données démographiques ou économiques sur la France, plutôt que le site de l’Insee, il faille consulter les sites d’organismes internationaux ou privés qui font le travail de repartir des données de base de l’Insee, de les croiser avec d’autres sources et de les agréger de façon utilisable par quelqu’un qui ne soit pas un statisticien expert : Eurostat, l’OCDE, Wikipédia, Xerfi par exemple. Signalons d’ailleurs que cette difficulté d’interprétation des données brutes publiées par l’Insee et d’autres organismes publics crée un marché pour des entreprises qui les mettent en forme et procurent des outils de navigation, comme par exemple la société Spallian.

De même, il a fallu attendre plus de trente ans pour que l’IGN mette à disposition gratuite du public ses fonds de cartes au niveau communal, et encore sous une forme difficile à utiliser. C’est un contraste saisissant avec la doctrine des agences gouvernementales américaines selon laquelle le contribuable n’a pas à payer une seconde fois pour accéder à des données pour lesquelles il a déjà payé une fois par ses impôts.

Ces politiques différentes ne sont pas sans conséquences économiques : la restriction française d’accès aux données publiques est un handicap pour nos entreprises. Il y a des décennies que les entreprises américaines peuvent accéder aux bases de données d’American Demographics qui mettent en forme de façon inventive les données fournies par le Census Bureau, éventuellement au niveau de l’îlot, ce qui représente un atout considérable pour leur politique commerciale. Sans que ce soit rigoureusement impossible, obtenir la même qualité d’information en France demande un parcours du combattant hors de portée d’une entreprise de taille moyenne ou petite. La situation est la même pour les données cadastrales, elles aussi d’un intérêt social et économique considérable.

L’examen des possibilités d’accès aux données d’EdF ou de la SNCF conduit à des conclusions analogues.

Copyright 2017-Bloch/Diploweb


Plus, tout de suite

Ce livre de Laurent Bloch, L’Internet, vecteur de puissance des Etats-Unis ?, est déjà disponible sur Amazon au format numérique Kindle et au format broché imprimé sur papier.

Intelligence artificielle : les entrepreneurs savent mieux que l’Etat

par ,

Intelligence artificielle : les entrepreneurs savent mieux que l’Etat

Au lieu de « débloquer » 1.5 Mds d’euros, on aurait mieux fait d’encourager l’innovation par moins d’Etat, de bureaucratie et d’impôts. Mais les politiques aiment les rapports et l’interventionnisme, même s’il est inutile et coûteux.

Le mercredi 28 mars, le rapport Villani sur l’intelligence artificielle a été présenté officiellement. Dès le lendemain, le gouvernement a annoncé 1,5 milliard d’euros consacrés à l’intelligence artificielle d’ici la fin du quinquennat afin notamment de « revenir dans la course dans ce domaine jugé stratégique et dominé jusqu’à présent par les mastodontes américains et chinois », selon l’Elysée. « Donner un sens à l’IA » est le titre du rapport Villani.

Loin de nous l’idée de sous-estimer les compétences de notre illustre mathématicien. Néanmoins, des rapports réalisés dans le passé par des personnalités de tous horizons n’ont pas pour autant résolu les problèmes d’avenir. En 1978 par exemple, le rapport Simon Nora et Alain Minc sur l’informatisation de la société à l’attention du président Valéry Giscard d’Estaing ne prévoit pas les révolutions informatiques à venir, laissant les Français croire en la gloire future du Minitel. Plus tard, en 1994, le rapport intitulé « Les autoroutes de l’information », réalisé par des polytechniciens et ingénieurs des télécoms (Gérard Théry, Alain Bonnafé, Michel Guieysse), sous-estime complètement le rôle de l’Internet : « Par sa large diffusion et son faible coût d’utilisation, Internet tend à s’imposer au reste du monde et pourrait devenir, après amélioration, le vecteur américain prioritaire des autoroutes de l’information, avec le bénéfice d’une implantation internationale et d’une avance concurrentielle en termes de services et d’équipements. Cependant son mode de fonctionnement coopératif n’est pas conçu pour offrir des services commerciaux. Sa large ouverture à tous types d’utilisateurs et de services fait apparaître ses limites, notamment son inaptitude à offrir des services de qualité en temps réel de voix ou d’images. …De plus il n’existe aucun moyen de facturation sur Internet, si ce n’est l’abonnement à un service, auquel on accède avec un mot de passe. Ce réseau est donc mai adapté à la fourniture de services commerciaux. Le chiffre d’affaires mondial sur les services qu’il engendre ne correspond qu’au douzième de celui du Minitel. Les limites d’Internet démontrent ainsi qu’il ne saurait, dans le long terme, constituer à lui tout seul, le réseau d’autoroutes mondial. » Et les auteurs du rapport de conseiller au Premier ministre, Edouard Balladur, d’accorder les sommes nécessaires à la société France Télécom pour mettre en place les « nouvelles autoroutes de l’information ».

Ce n’est qu’un exemple parmi d’autres. Dans le cas de l’IA, nous sommes encore plus dans le flou qu’on ne l’était en 1994 lorsque le potentiel de l’internet était déjà visible sauf pour ceux qui pensaient que l’argent public pouvait compenser les retards français. Cela fut le cas une nouvelle fois plus tard, en 2008, avec le projet « Quaero », cher à Jacques Chirac, et qui devait torpiller Google. On connaît les résultats.

Le problème avec les politiques c’est qu’ils veulent toujours tout prévoir. Pour cela, ils ont besoin de rapports. Ceux qui veulent faire des rapports ne manquent jamais à l’appel et ceux qui en profitent ensuite sont encore plus nombreux. La distribution d’argent public et la mission – louable en soi – de mettre le pays à la pointe de l’innovation, est une aubaine pour beaucoup. Sauf que les Microsoft, Google, Amazon et autres ne se décrètent pas. C’est l’entrepreneuriat et l’innovation qui s’en chargent. Au lieu de « débloquer » 1.5 Mds d’euros, on aurait mieux fait d’encourager l’innovation par moins d’Etat, de bureaucratie et d’impôts. Car les entrepreneurs savent mieux que l’Etat ce qu’il faut faire.

https://fr.irefeurope.org/Publications/Articles/article/Intelligence-artificielle-les-entrepreneurs-savent-mieux-que-l-Etat