À lire cette semaine...
Super article
23 juillet 2015, 17:25
Je l'ai gardé ouvert dans me onglets pendant quelques temps et je viens enfin de le lire. Effectivement, c'est un super article.
Son explication du plateau des technos à mesure que la croissance devient de moins en moins économiquement intéressante vaut la peine d'être creusée, je pense.
Je suis pas d'accord avec lui sur quelques points par contre, par exemple :
Because the Web started as a technical achievement, technical people are the ones who get to call the shots. We decide how to change the world, and the rest of you have to adapt.
Je trouve au contraire que c'est super démocratique : toutes les ressources pour se former sont en ligne gratuitement, les meilleurs OS sont open source et gratuits, si quelqu'un a le niveau, il peut participer à la discussion et ses idées seront jugées sur leur mérite et non sur l'auteur, qui peut rester totalement anonyme.
Ça reste pas parfait, genre on réinvente la roue dans le navigateur alors que les problèmes d'IHM et de compatibilité ont été réglés dans les années 80, mais Internet (je me limite pas au web) a permis l'émergence d'une technocratie où celui qui a raison c'est celui qui écrit le code, et je trouve ça super. Pour moi c'est super démocratique.
Sur d'autres il est marrant :
(and it's significant that the people most afraid of AI and nanotech have the least experience with it)
C'est très vrai, et je trouve l'hypothèse de l'AI générale de fin du monde risible aussi, mais les progrès ces dernières années ont été très rapide, et contrairement à il y a quelques décennies, avec moins de quelques millers d'euros de matos (environ 15 000 pour un supercalculateur GPU top of the pop) un ingé peut reproduire les résultats du dernier papier de deep learning de Facebook ou Google. Les confs sont diffusées en live, n'importe quelle startup peut arriver à l'état de l'art avec un investissement minimal, je pense qu'on va vers une diffusion rapide dans le grand public des derniers résultats de la recherche. Et ça va faire bizarre parce que d'un point de vue informatique, l'industrie avait au moins 10 ans de retard (Plan 9 est sorti avant Windows XP, par exemple) début 2000, et même la recherche a stagné ensuite.
Bref, un article qui fait réfléchir, merci Akshell !
10 août 2015, 14:04
Du coup j'ai contribué à lui payer son voyage en Antarctique. Une telle clairvoyance méritait bien ça.
Se former soit même demande du temps, donc de l'argent et de l'énergie, tu n'as pas vraiment d'aide quand tu te plantes, tu n'as pas forcement de guide et tu perds au final énormément de temps. Et puis tu arrives très rapidement à un niveau où la base mathématique et algorithmique n'est plus trivial, donc encore du temps pour se former. Et encore à condition d'en avoir les capacités.
« n'importe quelle startup peut arriver à l'état de l'art avec un investissement minimal »
Bah par expérience je dirais que non, les personnes réellement capable de travailler à ce niveau son très très rares. Et personnes ne te laisse travailler à un tel niveau d'abstraction, au mieux on te laisse un à deux ans pour dev un prototype pour le lancer en production et qui doit rapporter très vite. La logique financière est immédiate. Essentiellement parce que les gens qui décident n'en ont pas la moindre compréhension. Si tu te lances dans un algo de recommandation très vite tu vas te retrouver avec des questions du genre pourquoi cet item et pas celui là, pourquoi ça ne se rafraîchit pas en temps réel. Prouvez moi que votre algo fonctionne !, etc.
« Plan 9 est sorti avant Windows XP, par exemple) début 2000, et même la recherche a stagné ensuite. »
Je ne connais pas Plan 9, mais d'un point de vue technique, En 2004 google à sorti un article sur MapReduce qui à lancé des projets comme Hadoop ou Spark orienté sur le calcul distribué, ou au moins un type de traitement de données. Actuellement avec les dernières versions de Spark tu peux faire du ML directement de manière distribué sans avoir besoin de connaitre les couches les plus basses.
10 août 2015, 14:30
Akshell a écrit :
Bah par expérience je dirais que non, les personnes réellement capable de travailler à ce niveau son très très rares. Et personnes ne te laisse travailler à un tel niveau d'abstraction, au mieux on te laisse un à deux ans pour dev un prototype pour le lancer en production et qui doit rapporter très vite. La logique financière est immédiate. Essentiellement parce que les gens qui décident n'en ont pas la moindre compréhension. Si tu te lances dans un algo de recommandation très vite tu vas te retrouver avec des questions du genre pourquoi cet item et pas celui là, pourquoi ça ne se rafraîchit pas en temps réel. Prouvez moi que votre algo fonctionne !, etc.
C'est vrai, je l'ai ressenti aussi, j'ai passé mon temps en entreprise à écrire des demandes de subventions plutôt qu'à faire de la recherche.
Ce que je voulais dire, c'est que pour innover avec les technologies de l'information, les gens qui ont le savoir technique peuvent se regrouper à 3 ou 4 et mettre de côté suffisamment d'argent pour lancer une entreprise qui peut avoir un impact non négligeable sur la société.
A l'inverse, si tu veux te lancer dans le transport ou l'énergie, au hasard, il faut obligatoirement un investissement extérieur.
10 août 2015, 14:44
J'ai un doute, quand je vois sur l'analyse d'images le niveau où est Google, Microsoft ou Baidu sont, la force de frappe qu'ils ont, je ne vois pas à part des entreprises de même taille comme Amazon ou Apple qui pourrait avancer aussi vite. Baidu a récemment été recalé d'une compétition parce qu'ils avaient réussi à soumettre 200 tests sur une période de 6 mois pour perfectionné leur algorithme, ça implique d'avoir plusieurs équipes en parallèles et / ou des clusters en parallèles.
http://www.i-programmer.info/news/105-artificial-intelligence/8657-baidu-ai-team-caught-cheating-banned-for-a-year-from-imagenet-competition-.html
A ce niveau, la taille compte. A moins d'être les seuls sur une idée géniale que personne d'autre n'exploite tu auras tout de suite des armées face à toi.
10 août 2015, 15:10
Innover plus vite qu'eux c'est pas possible, effectivement, mais comme ils publient le code et que le matos ne coute pas grand chose, tu peux facilement exploiter commercialement le résultat de leur recherche.
Exemple : j'ai été contacté par une entreprise dont le but est de faire une appli où quand tu voyages en Chine tu prends une photo de ta bouffe et l'appli te dit ce que c'est. C'est du même niveau que les papiers sur la description d'image de Stanford et Google il y a quelques mois :
https://cs.stanford.edu/people/karpathy/deepimagesent/
Je leur ai conseillé de regarder de ce côté là et s'ils sont pas manchots ils devraient avoir réglé le côté technique de leur app en quelques mois de travail. Il ne restera plus ensuite qu'à s'occuper du côté business, à rentabiliser le truc, etc. Mais ils sont 4, et grâce à Internet et à la recherche ouverte ils peuvent mettre en moins d'un an sur le marché un produit sorti tout droit du labo. Et c'est ça que je trouve super-cool, et qui était beaucoup pus difficile il y a quelques années.
10 août 2015, 15:39
euh ouais, mais ils vont bloquer là où google est très fort, constituer le jeu de donnée de base, pour Google maps ils utilisent des milliers d'indiens qui corrigent les données à la main, sur la numérisation des livres, c'était des centaines de tourneurs de pages, etc.
10 août 2015, 16:34
Certes. C'est là qu'Amazon et ses Mechanical Turks entrent en scène : tant que l'algo fonctionne pas c'est fait à la main, dès qu'ils ont assez de données, ça devient automatique.
https://www.mturk.com/mturk/welcome
J'ai pas dit que c'était facile ^^
10 août 2015, 16:45
http://recode.net/2015/08/09/baidus-medical-robot-chinese-voice-diagnostic-app/
Je crois que tous les marchés rentable vont être pris très rapidement.
11 août 2015, 08:01
Les gros marchés de masse, très certainement. Je pense qu'il va rester énormément de niches à combler pendant encore longtemps.
11 août 2015, 08:51
Linschn a écrit :
Sur d'autres il est marrant :
(and it's significant that the people most afraid of AI and nanotech have the least experience with it)
C'est très vrai, et je trouve l'hypothèse de l'AI générale de fin du monde risible aussi...
Flemme de rechercher, mais il y a peu j'ai vu passer une tribune de tous les spécialistes de l'IA, qui appelaient à ne pas fabriquer de robot soldat, technologie qui serait, d'après l'article, à portée de main. Le discours était "les biologistes ont appelé au bannissement des armes biologiques, les physiciens à celui des armes nucléaires, nous aussi on s'inquiète des potentiels ravages de notre science, ce qui nuirait à son image et nous empêcherait de développer ses potentiels bienfaits".
Bref, même si ça ne concernait pas une IA de fin du monde genre Skynet, c'est bien les personnes les plus expérimentées en IA qui semblent s'inquiéter de ses possibles implications.
11 août 2015, 18:30
Le Gorafi - 18 h
Flash : Google annonce une restructuration autour d'une société qui se nommera désormais Cyberdyne Systems.
Kira: Of course not. You're a boy.
11 août 2015, 19:33
JiHeM a écrit :
Flemme de rechercher, mais il y a peu j'ai vu passer une tribune de tous les spécialistes de l'IA, qui appelaient à ne pas fabriquer de robot soldat, technologie qui serait, d'après l'article, à portée de main. Le discours était "les biologistes ont appelé au bannissement des armes biologiques, les physiciens à celui des armes nucléaires, nous aussi on s'inquiète des potentiels ravages de notre science, ce qui nuirait à son image et nous empêcherait de développer ses potentiels bienfaits".
Bref, même si ça ne concernait pas une IA de fin du monde genre Skynet, c'est bien les personnes les plus expérimentées en IA qui semblent s'inquiéter de ses possibles implications.
http://futureoflife.org/AI/open_letter_autonomous_weapons
C'est exactement le pitch du jeu que j'ai présenté au concours humble bundle (voir le forum) : une AI générale, c'est de la science fiction, et les zozos qui s'en inquiètent ne sont pas des chercheurs en AI, par contre armer des drones (AI pas générale, du moins pour les quelques décennies à venir), c'est une mauvaise idée.
12 août 2015, 08:07
Juste pour me faire l'avocat du diable (ça vous rappelle quelque chose ? ;) ), en réalité de nombreux systèmes d'armes possèdent déja des systèmes AI autonomes.
L'exemple le plus connu est celui du bouclier anti missiles au dessus d'Israel.
Il intercepte en vol les missiles et roquettes automatiquement (obligé car la fenêtre de tir pour une décision est minime et 'inhumaine').
De même, si j'ai bien compris le système embarqué sur le F35 sera une sorte de système autonome qui permettra à une cible identifée par un avion d'être engagée par un autre plus proche de façon automatique.
Evidemment, ce n'est pas ce qu'on a en tête (nous les profanes) quand on parle d'AI autonomes et pourtant ça existe déja et c'est utilisé.
Joseph Heller
12 août 2015, 09:21
Effectivement, il y a déjà des trucs dangereux en service maintenant.
Il faut éviter de donner à des méthodes d'apprentissage statistique le contrôle de systèmes dangereux (systèmes industriels lourds e.g. une usine pétro-chimique, systèmes d'armes, systèmes de trading hautes-fréquence, etc.).
Toutes les méthodes d'apprentissage statistiques sont sensibles à ce qu'on appelle "l'optimisation pernicieuse". C'est un mécanisme où la machine fait exactement ce que tu lui a dit de faire, mais ce que tu lui as dit n'était pas ce que tu voulais dire.
Typiquement les andouilles qui font du trading haute fréquence optimisent pour un max de profit pour leurs institutions, mais la stabilité du marché, ou maintenir un lien cohérent entre valeur et coût, OSEF.
Mais ça peut être plus subtil. Dans une de mes expériences j'avais un petit jeu vidéo de voitures, et je voulais montrer que j'arrivais à un comportement où le pilote automatique prend des risques en doublant. Manque de pot, j'ai trop peu pénalisé les collisions et trop récompensé la vitesse et donc le pilote ne cherchait même pas à éviter les autres caisses.
Dans un système d'armes, ça peut donner lieu à des dommages collatéraux parce qu'un mec au pentagone a décidé que 1% de risque de perte sur un drone à 10 000 000 $ c'était plus grave que 0.1% de risque de se tromper de cible, sans se rendre compte de ce que ce genre de chiffres peut donner lorsqu'on les applique à des milliers et des milliers de sorties.
Le cas SF, c'est "I, robot", où
Donc le danger est réel, présent, mal compris et subtil. Mais on est loin d'un scénario à la Skynet ou à la mode Asimov. Ça tient plus du risque industriel classique, et on a des méthodes pour encadrer ça, mais elles sont malheureusement pas compatibles avec des profits évalués trimestres par trimestres.
12 août 2015, 16:08
Donc ton message confirme bien que seuls les spécialistes qui y entravent quelque chose s'inquiètent des dérives potentielles, et pas les ignorants (qui eux ont des préoccupations plus terre-à-terre, genre "les zarab' qui volent not' pain"). :)
12 août 2015, 17:21
Il existe des spécialistes autoproclamés qui affirment des choses avec force alors que leurs travaux sont très mal formalisés et qu'ils n'ont jamais réussi à les publier dans une revue ou une conf avec comité de lecture.
Ces gens là ont aussi la désagréable habitude d'insulter les "vrais" chercheurs en sous entendant plus ou moins subtilement qu'ils sont aveugles et mènent l'humanité à sa perte (sans rire).
Le chef de file de ces zozos c'est Eliezer Yudkowsky :
https://intelligence.org/2015/07/27/miris-approach/
http://wiki.lesswrong.com/wiki/Friendly_artificial_intelligence
Du coup quand un journaliste en mal de clic balance un article foireux dont le texte laisse supposer que Stephen Hawking est d'accord avec la bullshit de Yudkowsky, ça m'agace.
Le sujet est très mal compris du grand public, et c'est globalement le même combat que les OGM, les nanotechs et le nucléaire (et peut-être les cellules souches et les vaccins aussi). Il faut étudier le rapport risque/bénéfice et utiliser des chiffres, pas des arguments émotionnels. Je suis très sérieux quand je dis que l'Intelligence Artificielle aujourd'hui, c'est un problème de risque industriel plutôt standard.
Et si on remonte 70 ans en arrière, on s'aperçoit que l'armée a fait pas mal de conneries avec le nucléaire avant de comprendre les vrais dangers (e.g. en France : https://fr.wikipedia.org/wiki/Accident_de_B%C3%A9ryl) . Sauf que ce coup-ci les scientifiques qui voient venir le truc essaye de prévenir, en demandant aux complexes militaro industriels de s'il vous plait pas trop faire les apprentis sorciers.
Bref, oui, il y a des dangers, mais ils sont complètement maitrisables, les dangers ne sont pas techniques, c'est la gestion politique qui pêche. Comme d'hab en fait.
12 août 2015, 18:06
Tiens, c'est marrant, ton explication match bien l'interprétation que j'avais eu de cette fameuse "lettre ouverte": en gros, les gens qui s'y connaissent disent aux militaires (et aux politiciens qui les gouvernent) "les mecs, ce serait gentils de pas nous pousser à faire des trucs dont on (ceux qui s'y connaissent) est capable de prévoir que ça va forcément mal finir, genre armes totalement autonomes". Et on parle d'autonomie de décision sur la mort d'un être humain, pas de la destruction d'un missile en vol ou d'assistance au tir sur une cible préalablement identifiée comme hostile par un être humain.
14 août 2015, 18:20
Ajouter un commentaire
Vous devez être identifié pour poster un commentaire.