banner
Centre d'Information
Vaste expertise de vente et de production

L'incroyable retour zombie de l'informatique analogique

Sep 18, 2023

Charles Plat

Comment aimer à nouveau la technologie

J'ai vu Dieu dans une usine de chips

Le combat sans fin pour réparer

L'avenir est analogique

Lecture en cours

Qui regarde les Watchers ?

Armes de perturbation du gaz

Lorsque la vieille technologie meurt, elle reste généralement morte. Personne ne s'attend à ce que les téléphones à cadran ou les additionneurs reviennent de l'oubli. Disquettes, cassettes VHS, tubes cathodiques, ils reposeront en paix. De même, nous ne verrons pas de sitôt de vieux ordinateurs analogiques dans les centres de données. C'étaient des bêtes monstrueuses : difficiles à programmer, coûteuses à entretenir et limitées en précision.

Ou alors j'ai pensé. Puis je suis tombé sur cette déclaration déroutante :

Ramener les ordinateurs analogiques sous des formes beaucoup plus avancées que leurs ancêtres historiques changera radicalement et pour toujours le monde de l'informatique.

Sérieusement?

J'ai trouvé la prédiction dans la préface d'un beau livre illustré intitulé, simplement, Analog Computing. Réédité en 2022, il a été écrit par le mathématicien allemand Bernd Ulmann – qui semblait vraiment très sérieux.

J'écris sur la technologie du futur bien avant l'existence de WIRED et j'ai écrit six livres expliquant l'électronique. J'avais l'habitude de développer mon propre logiciel et certains de mes amis conçoivent du matériel. Je n'avais jamais entendu personne dire quoi que ce soit à propos de l'analogique, alors pourquoi Ulmann aurait-il imaginé que ce paradigme très mort pourrait être ressuscité ? Et avec des conséquences aussi profondes et permanentes ?

Je me suis senti obligé d'enquêter plus avant.

Pour un exemple de la façon dont le numérique a remplacé l'analogique, regardez la photographie. Dans un appareil photo pré-numérique, des variations continues de lumière créaient des réactions chimiques sur un morceau de film, où une image apparaissait comme une représentation – un analogue – de la réalité. Dans un appareil photo moderne, en revanche, les variations de lumière sont converties en valeurs numériques. Ceux-ci sont traités par le processeur de la caméra avant d'être enregistrés sous forme de flux de 1 et de 0, avec compression numérique, si vous le souhaitez.

Les ingénieurs ont commencé à utiliser le mot analogique dans les années 1940 (raccourci d'analogique ; ils aiment la compression) pour désigner des ordinateurs qui simulaient des conditions réelles. Mais les appareils mécaniques faisaient à peu près la même chose depuis des siècles.

Le mécanisme d'Anticythère était une pièce mécanique étonnamment complexe utilisée il y a des milliers d'années dans la Grèce antique. Contenant au moins 30 engrenages en bronze, il affichait les mouvements quotidiens de la lune, du soleil et de cinq planètes tout en prédisant les éclipses solaires et lunaires. Parce que son fonctionnement mécanique simulait des événements célestes du monde réel, il est considéré comme l'un des premiers ordinateurs analogiques.

Au fil des siècles, des appareils analogiques mécaniques ont été fabriqués à des fins plus terrestres. Dans les années 1800, une invention appelée le planimètre se composait d'une petite roue, d'un arbre et d'une tringlerie. Vous avez tracé un pointeur autour du bord d'une forme sur une feuille de papier, et la zone de la forme a été affichée sur une échelle. L'outil est devenu un élément indispensable dans les agences immobilières lorsque les acheteurs voulaient connaître la superficie d'un terrain de forme irrégulière.

D'autres gadgets répondaient aux besoins militaires. Si vous étiez sur un cuirassé essayant de viser un canon de 16 pouces sur une cible au-delà de l'horizon, vous deviez évaluer l'orientation de votre navire, son mouvement, sa position, ainsi que la direction et la vitesse du vent ; des composants mécaniques intelligents ont permis à l'opérateur de saisir ces facteurs et d'ajuster le pistolet de manière appropriée. Les engrenages, les liaisons, les poulies et les leviers pouvaient également prédire les marées ou calculer les distances sur une carte.

Lauren Goode

Lauren Goode

Julien Chokkattu

Chevalier

Dans les années 1940, des composants électroniques tels que des tubes à vide et des résistances ont été ajoutés, car un courant fluctuant les traversant pouvait être analogue au comportement des fluides, des gaz et d'autres phénomènes dans le monde physique. Une tension variable pourrait représenter la vitesse d'un missile nazi V2 tiré sur Londres, par exemple, ou l'orientation d'une capsule spatiale Gemini dans un simulateur de vol de 1963.

Mais à ce moment-là, l'analogique était devenu un art en voie de disparition. Au lieu d'utiliser une tension pour représenter la vitesse d'un missile et une résistance électrique pour représenter la résistance de l'air qui le ralentit, un ordinateur numérique pourrait convertir des variables en code binaire - des flux de 1 et de 0 adaptés au traitement. Les premiers ordinateurs numériques étaient des ordinateurs centraux massifs remplis de tubes à vide, mais les puces de circuits intégrés ont ensuite rendu le traitement numérique moins cher, plus fiable et plus polyvalent. Dans les années 1970, la différence analogique-numérique pouvait se résumer ainsi :

Le dernier facteur était important, car la précision des ordinateurs analogiques était toujours limitée par leurs composants. Que vous utilisiez des roues dentées ou des tubes à vide ou des films chimiques, la précision était limitée par les tolérances de fabrication et se détériorait avec l'âge. L'analogique a toujours été modelé sur le monde réel, et le monde n'a jamais été absolument précis.

Quand j'étais un écolier britannique ringard avec un cas léger de TOC, l'inexactitude me dérangeait beaucoup. J'ai vénéré Pythagore, qui m'a dit qu'un triangle avec des côtés de 3 centimètres et 4 centimètres adjacents à un angle de 90 degrés aurait un côté diagonal de 5 centimètres, précisément. Hélas, mon plaisir a diminué lorsque j'ai réalisé que sa preuve ne s'appliquait que dans un domaine théorique où les lignes étaient d'épaisseur nulle.

Dans mon domaine quotidien, la précision était limitée par ma capacité à tailler un crayon, et lorsque j'ai essayé de faire des mesures, j'ai rencontré une autre caractéristique gênante de la réalité. À l'aide d'une loupe, j'ai comparé la règle que j'avais achetée dans une papeterie avec une règle du laboratoire de physique de notre école et j'ai découvert qu'elles n'étaient pas exactement de la même longueur.

Comment est-ce possible ? Cherchant l'illumination, j'ai vérifié l'histoire du système métrique. Le mètre était l'unité fondamentale, mais il était né d'une étrange combinaison de nationalisme et de fantaisie. Après la Révolution française, le nouveau gouvernement institue le mètre pour s'affranchir de l'imprécision de l'ancien régime. L'Académie française des sciences l'a défini comme la distance longitudinale de l'équateur, à travers Paris, au pôle Nord, divisée par 10 millions. En 1799, le mètre est solennisé comme un totem religieux sous la forme d'une barrette de platine aux Archives nationales de France. Des copies ont été faites et distribuées à travers l'Europe et les Amériques, puis des copies ont été faites des copies des copies. Ce processus a introduit des erreurs de transcription, qui ont finalement conduit à ma découverte traumatisante que les dirigeants de différentes sources pouvaient être visiblement inégaux.

Des problèmes similaires ont empêché toute mesure définitive du temps, de la température et de la masse. La conclusion était incontournable pour mon esprit d'adolescent : si vous espériez une précision absolue dans le domaine physique, vous ne pouviez pas l'avoir.

Lauren Goode

Lauren Goode

Julien Chokkattu

Chevalier

Mon terme personnel pour la nature inexacte du monde désordonné et flou était flou. Mais ensuite, en 1980, j'ai acquis un ordinateur de bureau Ohio Scientific et j'ai trouvé un soulagement rapide et durable. Toutes ses opérations ont été construites sur une base d'arithmétique binaire, dans laquelle un 1 était toujours exactement un 1 et un 0 était un véritable 0, sans chicanerie fractionnaire. Le 1 de l'existence, et le 0 du néant ! Je suis tombé amoureux de la pureté du numérique et j'ai appris à écrire du code, qui est devenu un refuge permanent contre les mathématiques floues.

Bien sûr, les valeurs numériques devaient toujours être stockées dans des composants physiques faillibles, mais les marges d'erreur s'en occupaient. Dans une puce numérique moderne de 5 volts, 1,5 volts ou moins représenteraient le chiffre 0 tandis que 3,5 volts ou plus représenteraient le chiffre 1. Les composants d'une carte mère correctement conçue resteraient dans ces limites, il ne devrait donc pas y avoir de malentendus. .

Par conséquent, lorsque Bernd Ulmann a prédit que les ordinateurs analogiques devaient faire leur grand retour, je n'étais pas seulement sceptique. J'ai trouvé l'idée un peu… dérangeante.

Espérant un retour à la réalité, j'ai consulté Lyle Bickley, membre fondateur du Computer History Museum à Mountain View, en Californie. Ayant servi pendant des années comme témoin expert dans des procès en matière de brevets, Bickley maintient une connaissance encyclopédique de tout ce qui a été fait et est encore fait en informatique.

"Beaucoup d'entreprises de la Silicon Valley ont des projets secrets de puces analogiques", m'a-t-il dit.

Vraiment? Mais pourquoi?

"Parce qu'ils consomment si peu d'énergie."

Bickley a expliqué que lorsque, par exemple, les systèmes d'IA en langage naturel par force brute distillent des millions de mots sur Internet, le processus est incroyablement gourmand en énergie. Le cerveau humain fonctionne avec une petite quantité d'électricité, a-t-il dit, environ 20 watts. (C'est la même chose qu'une ampoule.) "Pourtant, si nous essayons de faire la même chose avec des ordinateurs numériques, cela prend des mégawatts." Pour ce type d'application, le numérique "ne fonctionnera pas. Ce n'est pas une façon intelligente de le faire".

Bickley a dit qu'il violerait la confidentialité pour me donner des détails, alors je suis allé chercher des startups. Rapidement, j'ai trouvé une société de la région de la baie de San Francisco appelée Mythic, qui prétendait commercialiser le "premier processeur matriciel analogique AI de l'industrie".

Mike Henry a cofondé Mythic à l'Université du Michigan en 2013. C'est un gars énergique avec une coupe de cheveux soignée et une chemise bien repassée, comme un ancien vendeur IBM. Il a développé le point de Bickley, citant le réseau neuronal semblable au cerveau qui alimente GPT-3. "Il a 175 milliards de synapses", a déclaré Henry, comparant les éléments de traitement aux connexions entre les neurones du cerveau. "Ainsi, chaque fois que vous exécutez ce modèle pour faire une chose, vous devez charger 175 milliards de valeurs. Les très grands systèmes de centres de données peuvent à peine suivre le rythme."

C'est parce que, dit Henry, ils sont numériques. Les systèmes d'IA modernes utilisent un type de mémoire appelé RAM statique, ou SRAM, qui nécessite une alimentation constante pour stocker les données. Ses circuits doivent rester allumés même lorsqu'il n'exécute pas une tâche. Les ingénieurs ont beaucoup fait pour améliorer l'efficacité de la SRAM, mais il y a une limite. "Des astuces comme la baisse de la tension d'alimentation s'épuisent", a déclaré Henry.

Lauren Goode

Lauren Goode

Julien Chokkattu

Chevalier

La puce analogique de Mythic utilise moins d'énergie en stockant les poids neuronaux non pas dans la SRAM mais dans la mémoire flash, qui ne consomme pas d'énergie pour conserver son état. Et la mémoire flash est intégrée dans une puce de traitement, une configuration que Mythic appelle "compute-in-memory". Au lieu de consommer beaucoup d'énergie en déplaçant des millions d'octets entre la mémoire et un processeur (comme le fait un ordinateur numérique), certains traitements sont effectués localement.

Ce qui m'a dérangé, c'est que Mythic semblait réintroduire les problèmes de précision de l'analogique. La mémoire flash ne stockait pas un 1 ou un 0 avec des marges d'erreur confortables, comme les puces logiques à l'ancienne. Il maintenait des tensions intermédiaires (jusqu'à 256 !) pour simuler les différents états des neurones dans le cerveau, et je devais me demander si ces tensions dériveraient avec le temps. Henry ne semblait pas penser qu'ils le feraient.

J'ai eu un autre problème avec sa puce : la façon dont ça fonctionnait était difficile à expliquer. Henri rit. "Bienvenue dans ma vie", a-t-il dit. "Essayez de l'expliquer aux capital-risqueurs." Le succès de Mythic sur ce front a été variable : peu de temps après avoir parlé à Henry, la société a manqué de liquidités. (Plus récemment, il a levé 13 millions de dollars de nouveaux fonds et nommé un nouveau PDG.)

Je suis ensuite allé chez IBM. Son service de relations publiques d'entreprise m'a mis en contact avec Vijay Narayanan, un chercheur du département de physique de l'IA de l'entreprise. Il a préféré interagir via des déclarations par e-mail approuvées par l'entreprise.

Pour le moment, a écrit Narayanan, "notre recherche analogique concerne la personnalisation du matériel d'IA, en particulier pour l'efficacité énergétique". Donc, le même objectif que Mythic. Cependant, Narayanan semblait plutôt circonspect sur les détails, j'ai donc lu un peu plus et trouvé un article d'IBM qui faisait référence à "aucune perte de précision appréciable" dans ses systèmes de mémoire. Pas de perte appréciable ? Cela signifiait-il qu'il y avait une perte? Ensuite, il y avait la question de la durabilité. Un autre article mentionnait "une précision supérieure à 93,5% conservée sur une période d'une journée". Il avait donc perdu 6,5 % en une seule journée ? Était-ce mauvais ? A quoi faut-il le comparer ?

Tant de questions sans réponse, mais la plus grande déception était la suivante : Mythic et IBM semblaient intéressés par l'informatique analogique uniquement dans la mesure où des processus analogiques spécifiques pouvaient réduire les besoins en énergie et en stockage de l'IA, et non effectuer les calculs fondamentaux basés sur les bits. (Les composants numériques le feraient toujours.) Pour autant que je sache, ce n'était pas proche de la seconde venue de l'analogique comme l'avait prédit Ulmann. Les ordinateurs d'antan étaient peut-être des géants de la taille d'une pièce, mais ils pouvaient tout simuler, du liquide circulant dans un tuyau aux réactions nucléaires. Leurs applications partageaient un attribut. Ils étaient dynamiques. Ils impliquaient le concept de changement.

Les ingénieurs ont commencé à utiliser le mot analogique dans les années 1940 pour désigner des ordinateurs qui simulaient des conditions réelles.

Lauren Goode

Lauren Goode

Julien Chokkattu

Chevalier

Une autre énigme de mon enfance : si je tenais une balle et que je la laissais tomber, la force de gravité la faisait se déplacer à une vitesse croissante. Comment pourriez-vous déterminer la distance totale parcourue par la balle si la vitesse changeait continuellement au fil du temps ? Vous pouvez décomposer son parcours en secondes, millisecondes ou microsecondes, déterminer la vitesse à chaque étape et additionner les distances. Mais si le temps s'écoulait réellement par petits pas, la vitesse devrait sauter instantanément d'un pas à l'autre. Comment cela pourrait-il être vrai ?

Plus tard, j'ai appris que ces questions avaient été abordées par Isaac Newton et Gottfried Leibniz il y a des siècles. Ils avaient dit que la vitesse change par incréments, mais les incréments sont infiniment petits.

Donc il y avait des marches, mais ce n'étaient pas vraiment des marches ? Cela ressemblait à une évasion pour moi, mais sur cette prémisse douteuse, Newton et Leibniz ont développé le calcul, permettant à chacun de calculer le comportement d'innombrables aspects du monde qui changent naturellement. Le calcul est une façon de modéliser mathématiquement quelque chose qui change continuellement, comme la distance parcourue par une balle qui tombe, comme une séquence de différences infiniment petites : une équation différentielle.

Ces mathématiques pourraient être utilisées comme entrée pour les ordinateurs électroniques analogiques de la vieille école, souvent appelés, pour cette raison, analyseurs différentiels. Vous pouvez brancher des composants ensemble pour représenter des opérations dans une équation, définir certaines valeurs à l'aide de potentiomètres, et la réponse peut être affichée presque immédiatement sous forme de trace sur un écran d'oscilloscope. Ce n'était peut-être pas parfaitement exact, mais dans le monde confus, comme je l'avais appris à mon grand mécontentement, rien n'était parfaitement exact.

Pour être compétitif, un véritable ordinateur analogique capable d'émuler un comportement aussi polyvalent devrait être adapté à une production de masse à faible coût, à l'échelle d'une puce de silicium. Une telle chose avait-elle été développée ? Je suis retourné au livre d'Ulmann et j'ai trouvé la réponse à l'avant-dernière page. Un chercheur du nom de Glenn Cowan avait créé une véritable puce analogique VLSI (circuit intégré à très grande échelle) en 2003. Ulmann s'est plaint qu'elle était "limitée en capacités", mais cela ressemblait à la vraie affaire.

Glenn Cowan est un homme studieux, méthodique et aimable et professeur en génie électrique à l'Université Concordia de Montréal. En tant qu'étudiant diplômé à Columbia en 1999, il avait le choix entre deux sujets de recherche : l'un impliquerait l'optimisation d'un seul transistor, tandis que l'autre consisterait à développer un tout nouvel ordinateur analogique. Ce dernier était le projet favori d'un conseiller du nom de Yannis Tsividis. "Yannis m'a en quelque sorte convaincu", m'a dit Cowan, semblant ne pas savoir exactement comment cela s'est passé.

Au départ, il n'y avait pas de spécifications, car personne n'avait jamais construit d'ordinateur analogique sur une puce. Cowan ne savait pas à quel point cela pouvait être précis et l'inventait au fur et à mesure. Il a dû suivre d'autres cours à Columbia pour combler les lacunes de ses connaissances. Deux ans plus tard, il avait une puce de test qui, m'a-t-il dit modestement, était "pleine de naïveté d'étudiant diplômé. Cela ressemblait à un cauchemar de planche à pain". Pourtant, cela a fonctionné, alors il a décidé de rester et de faire une meilleure version. Cela a pris encore deux ans.

Lauren Goode

Lauren Goode

Julien Chokkattu

Chevalier

Une innovation clé de Cowan était de rendre la puce reconfigurable ou programmable. Les ordinateurs analogiques de la vieille école utilisaient des cordons de raccordement maladroits sur les cartes de connexion. Cowan a fait la même chose en miniature, entre les zones de la puce elle-même, en utilisant une technologie préexistante connue sous le nom de portes de transmission. Ceux-ci peuvent fonctionner comme des commutateurs à semi-conducteurs pour connecter la sortie du bloc de traitement A à l'entrée du bloc B, ou du bloc C, ou de tout autre bloc de votre choix.

Sa deuxième innovation consistait à rendre sa puce analogique compatible avec un ordinateur numérique standard, ce qui pourrait aider à contourner les limites de précision. "Vous pouvez obtenir une solution analogique approximative comme point de départ", a expliqué Cowan, "et l'introduire dans l'ordinateur numérique comme une supposition, car les routines itératives convergent plus rapidement à partir d'une bonne supposition." Le résultat final de son grand travail a été gravé sur une plaquette de silicium mesurant un très respectable 10 millimètres sur 10 millimètres. "Remarquablement", m'a-t-il dit, "ça a marché."

Lorsque j'ai interrogé Cowan sur les utilisations dans le monde réel, il a inévitablement mentionné l'IA. Mais j'avais eu le temps de réfléchir aux réseaux de neurones et je commençais à être sceptique. Dans une configuration de réseau neuronal standard, connue sous le nom de configuration crossbar, chaque cellule du réseau se connecte à quatre autres cellules. Ils peuvent être superposés pour permettre des connexions supplémentaires, mais même ainsi, ils sont beaucoup moins complexes que le cortex frontal du cerveau, dans lequel chaque neurone peut être connecté à 10 000 autres. De plus, le cerveau n'est pas un réseau statique. Au cours de la première année de vie, de nouvelles connexions neuronales se forment à un rythme de 1 million par seconde. Je ne voyais aucun moyen pour un réseau de neurones d'émuler des processus comme celui-là.

La deuxième puce analogique de Glenn Cowan n'était pas la fin de l'histoire à Columbia. Des raffinements supplémentaires étaient nécessaires, mais Yannis Tsividis a dû attendre un autre étudiant diplômé qui continuerait le travail.

En 2011, un jeune homme à la voix douce nommé Ning Guo s'est avéré disposé. Comme Cowan, il n'avait jamais conçu de puce auparavant. "J'ai trouvé ça, euh, assez difficile", m'a-t-il dit. Il rit au souvenir et secoua la tête. "Nous étions trop optimistes", se souvient-il tristement. Il rit encore. "Comme si nous pensions que nous pourrions le faire d'ici l'été."

En fait, il a fallu plus d'un an pour achever la conception de la puce. Guo a déclaré que Tsividis avait exigé un "niveau de confiance de 90%" que la puce fonctionnerait avant de poursuivre le processus coûteux de fabrication. Guo a tenté sa chance, et le résultat qu'il a nommé le HCDC, ce qui signifie ordinateur hybride continu discret. Le prototype de Guo a ensuite été incorporé sur une carte qui pouvait s'interfacer avec un ordinateur numérique standard. De l'extérieur, cela ressemblait à une carte de circuit imprimé accessoire pour un PC.

Lorsque j'ai interrogé Guo sur les applications possibles, il a dû réfléchir un peu. Au lieu de mentionner l'IA, il a suggéré des tâches telles que la simulation de nombreuses articulations mécaniques mobiles qui seraient connectées de manière rigide les unes aux autres en robotique. Ensuite, contrairement à beaucoup d'ingénieurs, il s'est permis de spéculer.

Lauren Goode

Lauren Goode

Julien Chokkattu

Chevalier

Il y a des rendements décroissants sur le modèle numérique, a-t-il dit, mais il domine toujours l'industrie. "Si nous appliquions autant de personnes et autant d'argent au domaine analogique, je pense que nous pourrions avoir une sorte de cotraitement analogique pour accélérer les algorithmes existants. Les ordinateurs numériques sont très bons pour l'évolutivité. L'analogique est très bon pour les interactions complexes entre les variables . À l'avenir, nous combinerons peut-être ces avantages.

Le HCDC était entièrement fonctionnel, mais il avait un problème : il n'était pas facile à utiliser. Fortuitement, une talentueuse programmeuse du MIT nommée Sara Achour a lu sur le projet et l'a vu comme une cible idéale pour ses compétences. Elle était spécialiste des compilateurs - des programmes qui convertissent un langage de programmation de haut niveau en langage machine - et pouvait ajouter une interface utilisateur plus conviviale en Python pour aider les gens à programmer la puce. Elle a tendu la main à Tsividis, et il lui a envoyé l'une des rares planches précieuses qui avaient été fabriquées.

Lorsque j'ai parlé avec Achour, elle était divertissante et engageante, livrant la terminologie à un rythme effréné. Elle m'a dit qu'elle avait initialement l'intention d'être médecin, mais qu'elle est passée à l'informatique après avoir poursuivi la programmation comme passe-temps depuis le collège. "Je m'étais spécialisée dans la modélisation mathématique des systèmes biologiques", a-t-elle déclaré. "Nous avons fait une modélisation macroscopique de la dynamique hormonale des protéines génétiques." Voyant mon regard vide, elle a ajouté: "Nous essayions de prédire des choses comme les changements hormonaux lorsque vous injectez une drogue particulière à quelqu'un."

Changements était le maître mot. Elle connaissait parfaitement les mathématiques pour décrire le changement, et après deux ans, elle a terminé son compilateur pour la puce analogique. "Je n'ai pas construit, comme, un produit d'entrée de gamme", a-t-elle déclaré. "Mais j'ai facilité la recherche d'implémentations résilientes du calcul que vous souhaitez exécuter. Vous voyez, même les personnes qui conçoivent ce type de matériel ont du mal à le programmer. C'est toujours extrêmement pénible."

J'ai aimé l'idée d'un ancien étudiant en médecine soulageant la douleur des concepteurs de puces qui avaient des difficultés à utiliser leur propre matériel. Mais quelle était son opinion sur les candidatures? Y a-t-il?

"Oui, chaque fois que vous ressentez l'environnement", a-t-elle déclaré. "Et la reconfigurabilité vous permet de réutiliser le même matériel pour plusieurs calculs. Je ne pense donc pas que cela va être relégué à un modèle de niche. Le calcul analogique a beaucoup de sens lorsque vous interagissez avec quelque chose qui est intrinsèquement analogique ." Comme le monde réel, avec tout son mutisme.

Pour en revenir au concept de laisser tomber une balle, et mon intérêt à savoir quelle distance elle parcourt pendant une période de temps : le calcul résout facilement ce problème, avec une équation différentielle - si vous ignorez la résistance de l'air. Le terme approprié pour cela est "l'intégration de la vitesse par rapport au temps".

Mais que se passe-t-il si vous n'ignorez pas la résistance de l'air ? Plus la balle tombe vite, plus elle rencontre de résistance à l'air. Mais la gravité reste constante, de sorte que la vitesse de la balle n'augmente pas à un rythme régulier mais diminue jusqu'à ce qu'elle atteigne la vitesse terminale. Vous pouvez également exprimer cela dans une équation différentielle, mais cela ajoute une autre couche de complexité. Je n'entrerai pas dans la notation mathématique (je préfère éviter la douleur, pour reprendre le terme mémorable de Sara Achour), car le message à retenir est tout ce qui compte. Chaque fois que vous introduisez un autre facteur, le scénario se complique. S'il y a un vent de travers, ou si la balle entre en collision avec d'autres balles, ou si elle tombe dans un trou au centre de la Terre, où la gravité est nulle, la situation peut se compliquer d'une manière décourageante.

Lauren Goode

Lauren Goode

Julien Chokkattu

Chevalier

Supposons maintenant que vous souhaitiez simuler le scénario à l'aide d'un ordinateur numérique. Il aura besoin de beaucoup de points de données pour générer une courbe lisse, et il devra continuellement recalculer toutes les valeurs pour chaque point. Ces calculs s'additionneront, surtout si plusieurs objets sont impliqués. Si vous avez des milliards d'objets, comme dans une réaction nucléaire en chaîne ou des états de synapse dans un moteur d'IA, vous aurez besoin d'un processeur numérique contenant peut-être 100 milliards de transistors pour traiter les données à des milliards de cycles par seconde. Et à chaque cycle, l'opération de commutation de chaque transistor va générer de la chaleur. La chaleur résiduelle devient un problème sérieux.

À l'aide d'une puce analogique nouvelle génération, il vous suffit d'exprimer tous les facteurs d'une équation différentielle et de la saisir dans le compilateur d'Achour, qui convertit l'équation en langage machine que la puce comprend. La force brute du code binaire est minimisée, tout comme la consommation d'énergie et la chaleur. Le HCDC est comme un petit assistant efficace résidant secrètement au milieu du matériel moderne, et il est de la taille d'une puce, contrairement aux mastodontes de la taille d'une pièce d'antan.

Maintenant, je dois mettre à jour les attributs analogiques de base :

Vous pouvez voir comment les conceptions de Tsividis et de ses étudiants diplômés ont résolu les inconvénients historiques de ma liste précédente. Et pourtant, malgré tout cela, Tsividis, le prophète de l'informatique analogique moderne, a toujours du mal à se faire prendre au sérieux.

Né en Grèce en 1946, Tsividis a très tôt développé une aversion pour la géographie, l'histoire et la chimie. "J'avais l'impression qu'il y avait plus de faits à mémoriser que de synapses dans mon cerveau", m'a-t-il dit. Il adorait les mathématiques et la physique, mais s'est heurté à un problème différent lorsqu'un enseignant lui a assuré que le périmètre d'un cercle était égal à trois fois le diamètre plus 14 centimètres. Bien sûr, il devrait être (environ) 3,14 fois le diamètre du cercle, mais lorsque Tsividis l'a dit, le professeur lui a dit de se taire. Cela, a-t-il dit, "suggère assez fortement que les figures d'autorité n'ont pas toujours raison".

Il a appris l'anglais par lui-même, a commencé à apprendre l'électronique, a conçu et construit des appareils comme des émetteurs radio et a finalement fui le système universitaire grec qui l'avait contraint à apprendre la chimie organique. En 1972, il a commencé des études supérieures aux États-Unis et, au fil des ans, il s'est fait connaître pour défier l'orthodoxie dans le domaine de l'informatique. Un concepteur de circuits bien connu l'a appelé "le monstre MOS analogique", après avoir conçu et fabriqué une puce d'amplification en 1975 en utilisant la technologie des semi-conducteurs à oxyde métallique, que personne ne croyait appropriée à la tâche.

Ces jours-ci, Tsividis est poli et terre-à-terre, sans intérêt à gaspiller des mots. Sa tentative de ramener l'analogique sous la forme de puces intégrées a commencé sérieusement à la fin des années 90. Quand je lui ai parlé, il m'a dit qu'il avait 18 cartes avec des puces analogiques montées dessus, quelques autres ayant été prêtées à des chercheurs comme Achour. "Mais le projet est suspendu maintenant", a-t-il dit, "parce que le financement de la National Science Foundation a pris fin. Et puis nous avons eu deux ans de Covid."

Lauren Goode

Lauren Goode

Julien Chokkattu

Chevalier

J'ai demandé ce qu'il ferait s'il recevait de nouveaux fonds.

"J'aurais besoin de savoir, si vous assemblez plusieurs puces pour modéliser un grand système, alors que se passe-t-il ? Nous allons donc essayer d'assembler plusieurs de ces puces et éventuellement, avec l'aide de fonderies de silicium, fabriquer un grand ordinateur sur un puce unique."

J'ai souligné que le développement jusqu'à présent a déjà pris près de 20 ans.

"Oui, mais il y a eu plusieurs années d'interruption. Dès qu'il y a un financement approprié, je relance le processus."

Je lui ai demandé si l'état de l'informatique analogique aujourd'hui pouvait être comparé à celui de l'informatique quantique il y a 25 ans. Pourrait-il suivre une voie de développement similaire, de la considération marginale à l'acceptation commune (et bien financée) ?

Cela prendrait une fraction du temps, a-t-il dit. "Nous avons nos résultats expérimentaux. Cela a fait ses preuves. S'il y a un groupe qui veut le rendre convivial, d'ici un an, nous pourrions l'avoir." Et à ce stade, il est prêt à fournir des cartes informatiques analogiques aux chercheurs intéressés, qui peuvent les utiliser avec le compilateur d'Achour.

Quel genre de personnes serait admissible?

"La formation dont vous avez besoin n'est pas seulement en informatique. Vous avez vraiment besoin d'une formation en mathématiques pour savoir ce que sont les équations différentielles."

Je lui ai demandé s'il estimait que son idée était, d'une certaine manière, évidente. Pourquoi n'avait-il pas encore résonné auprès de plus de gens ?

"Les gens se demandent pourquoi nous faisons cela alors que tout est numérique. Ils disent que le numérique est l'avenir, le numérique est l'avenir - et bien sûr c'est l'avenir. Mais le monde physique est analogique, et entre les deux, vous avez une grande interface. C'est où cela convient."

Dans un processeur numérique traitant des données à des milliards de cycles par seconde, l'opération de commutation de chaque transistor génère de la chaleur.

Lorsque Tsividis a mentionné avec désinvolture que les personnes appliquant le calcul analogique auraient besoin d'une formation mathématique appropriée, j'ai commencé à me poser des questions. Développer des algorithmes pour les ordinateurs numériques peut être un exercice mental ardu, mais le calcul est rarement nécessaire. Quand j'ai mentionné cela à Achour, elle a ri et a dit que lorsqu'elle soumet des articles aux critiques, "Certains d'entre eux disent qu'ils n'ont pas vu d'équations différentielles depuis des années. Certains d'entre eux n'ont jamais vu d'équations différentielles."

Lauren Goode

Lauren Goode

Julien Chokkattu

Chevalier

Et sans doute beaucoup d'entre eux ne le voudront pas. Mais les incitations financières ont un moyen de surmonter la résistance au changement. Imaginez un avenir où les ingénieurs en logiciel peuvent gagner 100 000 $ de plus par an en ajoutant une nouvelle puce à un CV : " Bien maîtriser les équations différentielles ". Si cela se produit, je pense que les développeurs Python s'inscriront bientôt à des cours de calcul en ligne de rattrapage.

De même, dans les affaires, le facteur déterminant sera financier. Il y aura beaucoup d'argent dans l'IA - et dans des molécules de médicaments plus intelligentes, et dans des robots agiles, et dans une douzaine d'autres applications qui modélisent la complexité floue du monde physique. Si la consommation d'énergie et la dissipation de chaleur deviennent des problèmes très coûteux, et qu'il est nettement moins cher de transférer une partie de la charge numérique dans des coprocesseurs analogiques miniaturisés, alors personne ne se souciera du fait que le calcul analogique était effectué par votre grand-père mathématicien en utilisant une grande boîte en acier pleine de tubes à vide.

La réalité est vraiment imprécise, peu importe à quel point je préférerais le contraire, et lorsque vous voulez la modéliser avec une fidélité vraiment exquise, la numériser n'est peut-être pas la méthode la plus sensée. Par conséquent, je dois conclure :

L'analogique est mort.

Vive l'analogique.

Cet article paraît dans le numéro de mai. Abonnez-vous maintenant.

Faites-nous savoir ce que vous pensez de cet article. Envoyez une lettre à l'éditeur à [email protected].

Lire la suite

Lire la suite