Nouvelles inventions importantes en informatique depuis 1980


561

Cette question est née des commentaires sur les différents types de progrès de l'informatique au cours des 50 dernières années.

Certains des autres participants m'ont demandé de la poser comme question à l'ensemble du forum.

L'idée de base ici n'est pas de dénigrer l'état actuel des choses, mais d'essayer de comprendre quelque chose sur les progrès de l'élaboration de nouvelles idées et principes fondamentaux.

Je prétends que nous avons vraiment besoin de nouvelles idées dans la plupart des domaines de l'informatique, et j'aimerais connaître toutes les idées importantes et puissantes qui ont été faites récemment. Si nous ne pouvons pas vraiment les trouver, alors nous devrions demander "Pourquoi?" et "Que devons-nous faire?"


77
Jeff Atwood a confirmé que l'utilisateur "Alan Kay" est LE "Alan Kay". Vous savez, le gars qui travaillait pour cette entreprise de photocopieuses ... ;-) fr.wikipedia.org/wiki/Alan_Kay
splattne

1
J'ai regardé cette vidéo: video.google.com/videoplay?docid=-533537336174204822 - Une vidéo historique (1979) sur le développement de Dynabook, Children and Computers et beaucoup plus présentée par Alan Kay. Choses incroyables faites avant 1970 - en particulier la partie "Sketchpad" en 1962.
Splattne

2
en fonction de votre propre définition, la réponse pourrait être de "aucun" à une énumération de toutes les technologies possibles. Et toutes ces réponses seraient soit correctes soit incorrectes selon la définition d'une "nouvelle idée" que le lecteur / observateur utilise ...
Emile Vrijdags

3
Après avoir regardé toutes les réponses ici: Bon deuil! N'avons-nous rien fait au cours des 30 dernières années ??
Jeremy Powell

2
@Will: Curieusement, je crois avoir récemment appris une réponse intéressante à cette question: les algorithmes de clustering rapides . DBSCAN est l'état de l'art pour une grande partie de cela (O (n log n) dans le nombre de points dans l'ensemble de données), et il date de 1996. Hélas, avec la question fermée, je ne prendrai pas le temps de lire les nombreuses réponses pour savoir si quelqu'un m'a battu.
dmckee --- chaton ex-modérateur

Réponses:


311

Internet lui-même est antérieur à 1980, mais le World Wide Web ("hypertexte distribué via des mécanismes simples") tel que proposé et mis en œuvre par Tim Berners-Lee a commencé en 1989/90.

Alors que l'idée d'hypertexte existait auparavant ( le Xanadu de Nelson avait essayé de mettre en œuvre un schéma distribué), le WWW était une nouvelle approche pour la mise en œuvre d'un système hypertexte distribué. Berners-Lee a combiné un protocole client-serveur simple, un langage de balisage et un schéma d'adressage d'une manière puissante et facile à mettre en œuvre.

Je pense que la plupart des innovations sont créées en combinant de manière originale des pièces existantes. Chacune des pièces du WWW avait existé sous une forme antérieure, mais la combinaison n'était évidente qu'avec du recul.

Et je sais avec certitude que vous l'utilisez maintenant.


26
+1 pour les plus évidents mais aussi les plus facilement oubliés car nous le prenons tous pour acquis :)
PolyThinker

20
Je n'utilise pas le World Wide Web pour le moment. J'utilise une série de tubes connus sous le nom d'internets, obtenus via Google.
Robert S.

13
@bruceatk: Hypertext est une implémentation de texte. Le texte a été inventé en 3500 avant JC.
Portman

1
@bruceatk: Je ne pense pas qu'il ait écrit sur le WWW avant 1989. w3.org/People/Berners-Lee
Portman

2
@splattne: Et penser est devenu recherche
u0b34a0f6ae

235

Fondation pour le logiciel libre (fondée en 1985)

Même si vous n'êtes pas un fervent partisan de leur philosophie, les idées qu'ils ont poussées, à propos du logiciel libre, de l'open source ont eu une influence incroyable sur l'industrie du logiciel et le contenu en général (par exemple Wikipedia).


9
Convenez que la FSF a été très influente, mais il y a une tendance parmi ses partisans à adopter la «pensée de groupe». Tant de FSF ne peuvent pas accepter que Apple OSX et MS Windows soient bien meilleurs que n'importe quel système d'exploitation open source pour l'utilisateur moyen. Personne ne veut l'admettre.
RussellH

32
L'objectif de la FSF est de promouvoir des logiciels qui peuvent être librement utilisés, modifiés et redistribués par tous. OSX et Windows ne sont pas "meilleurs" à cela, quelle que soit la définition.
Adam Lassek

5
@RussellH: vous confondez "Open Source" et "Free (as in Freedom) Software". En fait, votre commentaire illustre précisément pourquoi la distinction est importante. Mais de toute façon, Firefox est meilleur qu'Internet Explorer et Safari, et il est plus important pour les utilisateurs que Windows vs MacOS vs Linux.
niXar

8
Janie, vous n'avez pas besoin d'être un partisan pour voir que les principes qu'ils défendent ont eu un effet majeur sur l'industrie. Je n'ai aucun intérêt à me laisser entraîner dans une discussion sur la question de savoir si la FSF est communiste ou si vous devez adopter certains principes communistes.
Oddthinking

9
Invention légale, pas informatique.
Charles Stewart

150

Je pense qu'il est juste de dire qu'en 1980, si vous utilisiez un ordinateur, vous étiez payé ou vous étiez un geek ... alors qu'est-ce qui a changé?

  • Imprimantes et PAO grand public . Cela signifiait que vous n'aviez pas besoin d'une presse à imprimer pour produire des documents imprimés de grande qualité et de grand volume. C'était énorme - bien sûr, de nos jours, nous le tenons complètement pour acquis, et la plupart du temps, nous ne nous soucions même pas de la partie impression, car tout le monde est en ligne de toute façon.

  • Couleur . Sérieusement. Les écrans couleur ont fait une énorme différence dans la perception des non-geeks des jeux et des applications. Tout à coup, les jeux ressemblaient moins à du travail acharné qu'à de la télévision, ce qui ouvrait les portes à Sega, Nintendo, Atari et al pour faire entrer les jeux grand public dans la maison.

  • Compression multimédia (MP3 et fichiers vidéo). Et tout un tas de choses - comme TiVO et iPods - que nous ne considérons plus vraiment comme des ordinateurs, car ils sont tellement omniprésents et tellement conviviaux. Mais ils sont.

Le fil conducteur ici, je pense, est une chose qui était autrefois impossible (faire des documents imprimés; reproduire des images couleur avec précision; envoyer des messages dans le monde entier en temps réel; distribuer du matériel audio et vidéo), et qui était alors coûteux en raison de l'équipement et de la logistique impliqué, et est désormais au niveau des consommateurs. Donc - que font les grandes entreprises maintenant qui étaient auparavant impossibles mais qui pourraient être cool si nous pouvons trouver comment faire les choses à petite échelle et à bon marché?

Tout ce qui implique toujours un transport physique est intéressant à regarder. La visioconférence n'a pas encore remplacé de vraies réunions - mais avec la bonne technologie, elle le pourrait toujours. Certains voyages récréatifs pourraient être éliminés par un environnement immersif pleinement sensoriel - le cinéma à domicile est un exemple trivial; un autre est le "parcours de golf virtuel" dans un immeuble de bureaux à Soho, où vous jouez 18 trous de vrai golf sur un parcours simulé.

Pour moi, cependant, la prochaine grande chose va être la fabrication. Faire des choses. Cuillères et guitares et chaises et vêtements et voitures et carreaux et autres. Des choses qui dépendent encore d'une infrastructure de fabrication et de distribution. Je n'ai plus besoin d'aller dans un magasin pour acheter un film ou un album - combien de temps jusqu'à ce que je n'aie pas à aller au magasin pour des vêtements et des ustensiles de cuisine?

Bien sûr, il y a des développements intéressants en cours avec les écrans OLED et les conteneurs GPS et haut débit mobile et IoC et les scripts et "le cloud" - mais ce ne sont que de nouvelles façons de mettre des images sur un écran. Je peux imprimer mes propres photos et écrire mes propres pages Web, mais je veux pouvoir fabriquer un panier en lin qui s'insère exactement dans ce coin à côté de mon bureau, et un support de montage pour coller mon FX de guitare sur mon bureau, et quelque chose pour clipser mon téléphone portable sur le guidon de mon vélo.

Pas lié à la programmation? Non ... mais en 1980, la production sonore n'était pas non plus. Ou la distribution vidéo. Ou envoyer des messages à vos proches en Zambie. Voyez grand, les gens ... :)


1
Je pense que la compression des médias n'est pas un nouveau concept (cela remonte au travail de Shannon dans les années 50), c'est juste devenu faisable avec du matériel amélioré (assez rapide, capable de lire les médias).
Kornel

Je devrais être d'accord avec le fait que la fabrication soit quelque chose qui, je pense, pourrait être l'une des prochaines grandes choses. Lorsque les "imprimantes" d'objets deviendront courantes (imprimantes capables de reproduire des éléments physiques simples et durables), je pense que nous serons là.
Andy Webb

Il serait également intéressant d'analyser les éléments existants afin de pouvoir les remplacer. À plusieurs reprises, j'ai dû acheter une vis ou une pièce étrange pour remplacer celle qui s'est cassée dans la maison ou sur mon vélo. Avec un tel système, je pouvais numériser l'ancienne pièce, la réparer dans le logiciel, puis créer le remplacement.
Andy Webb

44
L'édition assistée par ordinateur et l'impression de haute qualité ont été inventées au Xerox PARC dans les années 70, certains Altos avaient à l'époque également des écrans couleur de haute qualité. Internet est antérieur à 1980. La compression des médias est antérieure à 1980. La question est de savoir quelles nouvelles technologies fondamentales ont été inventées depuis 1980
Alan Kay

3
Vous monsieur, êtes un visionnaire. Ne laissez pas l'homme vous abattre. Les imprimantes d'impression sont la prochaine grande révolution.
Waylon Flinn

137

Gestion des packages et contrôle de révision distribué.

Ces modèles dans la façon dont les logiciels sont développés et distribués sont assez récents et commencent tout juste à avoir un impact.

Ian Murdock a appelé la gestion des packages "la plus grande avancée que Linux a apportée à l'industrie". Eh bien, il le ferait, mais il a raison. La façon dont les logiciels sont installés a considérablement changé depuis 1980, mais la plupart des utilisateurs d'ordinateurs n'ont toujours pas connu ce changement.

Joel et Jeff ont parlé du contrôle des révisions (ou du contrôle de version ou du contrôle de source) avec Eric Sink dans le podcast # 36 . Il semble que la plupart des développeurs n'aient pas encore rattrapé les systèmes centralisés , et DVCS est largement considéré comme mystérieux et inutile.

Extrait de la transcription du podcast 36 :

0:06:37

Atwood: ... Si vous supposez - et c'est une grande hypothèse - que la plupart des développeurs maîtrisent un peu le contrôle de source fondamental - ce que je trouve pas vrai, franchement ...

Spolsky: Non. La plupart d'entre eux, même s'ils l'ont fait, c'est le check-in, le check-out qu'ils comprennent, mais la ramification et la fusion - qui confond le diable d'eux.


1
Si l'on doit compter comme une nouvelle invention importante, c'est git.
hasen

8
hasen j: git est un DCMS fantastique, cependant il y en avait plusieurs autres implémentés avant que git - git, soit une nouvelle implémentation significative d'une idée.
Arafangion

+1 pour la gestion des packages. Encore l'une des choses majeures que Linux / BSD doit garder sur la tête de tout le monde, bien que les autres y arrivent ( très lentement).
new123456

Même les systèmes de contrôle des révisions sur serveur sont en grande partie des développements postérieurs à 1980, passant de l'état actuel à l'histoire de l'État également… c'est un changement colossal et subtil.
Donal Fellows du

Le contrôle de révision distribué n'est pas le bon nom. Personne ne se soucie si votre système est centralisé ou non. L'important est de savoir si vous effectuez le suivi des ensembles de modifications ou des versions. Mais la plupart du temps, ils se rejoignent (GIT, Mercurial), ce qui déroute tout le monde. Joel Spolsky l'a dit lui-même dans un article de blog :With distributed version control, the distributed part is actually not the most interesting part.
Benjamin Crouzier

123

BitTorrent . Il transforme complètement ce qui semblait auparavant être une règle visiblement immuable: le temps nécessaire à une seule personne pour télécharger un fichier sur Internet augmente proportionnellement au nombre de personnes qui le téléchargent. Il corrige également les failles des solutions peer-to-peer précédentes, en particulier en ce qui concerne les «sangsues», d'une manière qui est organique pour la solution elle-même.

BitTorrent transforme élégamment ce qui est normalement un inconvénient - de nombreux utilisateurs essayant de télécharger un seul fichier simultanément - en un avantage, distribuant le fichier géographiquement comme une partie naturelle du processus de téléchargement. Sa stratégie d'optimisation de l'utilisation de la bande passante entre deux pairs décourage les sangsues comme effet secondaire - il est dans l'intérêt de tous les participants d'appliquer la limitation.

C'est une de ces idées qui, une fois que quelqu'un d'autre l'invente, semble simple, sinon évidente.


Certes, bien que BitTorrent puisse être quelque peu différent / amélioré, la nouvelle invention importante devrait vraiment être la distribution P2P, plutôt que toute implémentation spécifique comme BitTorrent.
Ilari Kajaste

10
Je ne suis pas d'accord. Le P2P n'est pas du tout nouveau, il est plus ancien que USENET. Les applications pré-bitTorrent "P2P" pour le bureau (Kazaa et similaires) sont simplement en train de reconditionner le concept client-serveur, en ajoutant un répertoire central dynamique des serveurs. Chaque client "homologue" se connecte à un seul autre serveur "homologue" pour transférer un fichier. Le fait qu'un seul nœud fasse les deux est un vieux chapeau (au moins pour les systèmes pré-Windows). Le protocole bitTorrent est (AFAIK) une toute nouvelle façon de transférer des fichiers, qui exploite plusieurs systèmes pour transférer un fichier entre eux de manière vraiment distribuée.
Kief

7
@JL: En théorie, le téléchargement direct est plus rapide, mais pas en pratique. Avec un semoir et un lixiviant, il ne devrait pas y avoir de différence. Dès que vous ajoutez un autre leacher, ce leacher peut commencer à prendre des morceaux de celui qui a une connexion plus rapide (même si le client avec la connexion la plus rapide n'a pas le fichier complet). Avec un téléchargement direct, pour profiter de la connexion plus rapide, vous devez d'abord attendre que le client termine le téléchargement avant de pouvoir commencer.
Peter Di Cecco

1
Je pense que la meilleure question est de savoir combien de bande passante économisez-vous en hébergeant un torrent et en l'ensemencant avec ce qui aurait été une boîte de téléchargement direct. Seules les entreprises comme Blizzard le savent maintenant, et je ne les ai pas vues parler de chiffres. Sans «super graine», les torrents s'appuieront sur les utilisateurs pour semer, ce qui ne fonctionne tout simplement pas avec les connexions asynchrones et les personnes ne voulant pas laisser leur ordinateur allumé et en amont saturées.
semi

6
@JL: les torrents sont plus lents que le téléchargement direct? Mon expérience "pratique" est différente; essayez d'aller télécharger Eclipse dans les deux sens.
Dean J

120

L'inférence de type Damas-Milner (souvent appelée inférence de type Hindley-Milner) a été publiée en 1983 et est depuis la base de tout système de type statique sophistiqué. C'était une idée véritablement nouvelle dans les langages de programmation (admise sur la base d'idées publiées dans les années 1970, mais qui n'a été mise en pratique qu'après 1980). En termes d'importance, je l'ai mis en place avec le Soi et les techniques utilisées pour mettre en œuvre le Soi; en termes d'influence, il n'a pas de pair. (Le reste du monde OO fait encore des variations sur Smalltalk ou Simula.)

Les variations sur l'inférence de type se jouent toujours; la variation que je soulignerais le plus est le mécanisme de classe de type de Wadler et Blott pour résoudre la surcharge, qui a été découvert plus tard comme offrant des mécanismes très puissants pour la programmation au niveau du type. La fin de cette histoire est toujours en cours d'écriture.


3
+1 Les systèmes de type statique sont une énorme étape énorme dans le développement de logiciels. Je ne pourrais plus être d'accord avec cette réponse.
Jeremy Powell

104

Voici une prise pour Google map-Reduce , non seulement pour lui-même, mais comme proxy pour la réalisation par Google de l'exécution de services rapides et fiables sur des fermes de machines de base peu fiables. Certainement une invention importante et totalement différente des approches mainframe gros fer pour le calcul des poids lourds qui ont régné sur le perchoir en 1980.


10
map-Reduce n'est pas du tout une invention de Google.
akappa

20
Je suis programmeur fonctionnel. Ma première langue était APL. Votre point, exactement?
Norman Ramsey

15
Donc (mapcar fl) et (réduire fl) en Lisp s'exécutent automatiquement sur un nombre arbitraire de machines de base, gérant toutes les intercommunications, les pannes et les redémarrages?
Jared Updike

16
La réduction de carte Google n'a pas grand-chose à voir avec la réduction de carte fonctionnelle.
aehlke

91

Le balisage , la façon dont les informations sont classées. Oui, les petites cases de texte sous chaque question.

Il est étonnant qu'il ait fallu environ 30 ans pour inventer le marquage. Nous avons utilisé des listes et des tables des matières; nous avons utilisé des choses optimisées pour les livres imprimés.

Cependant, 30 ans est beaucoup plus court que le temps nécessaire aux gens pour se rendre compte que les livres imprimés peuvent être en plus petit format. Les gens peuvent garder des livres en mains.

Je pense que le concept de marquage est sous-estimé parmi les gars de CS de base. Toutes les recherches sont axées sur le traitement du langage naturel (approche descendante). Mais le balisage est la première langue dans laquelle les ordinateurs et les gens peuvent bien comprendre. Il s'agit d'une approche ascendante qui fait que les ordinateurs utilisent des langues naturelles.


1
D'accord - cela correspond à mon argument selon lequel la seule chose nouvelle à laquelle je peux penser est le balisage syntaxique à interroger parmi de nombreux domaines - mais vous l'avez mieux dit.
dkretz

40
Découvrez Engelbart ca 1962-72
Alan Kay

Pour moi, le balisage ressemble beaucoup aux premiers moteurs de recherche qui utilisaient la balise meta = keywords (c'est-à-dire aussi après les années 80, je fais simplement valoir que le balisage ne vaut pas la peine d'être mentionné).
Kornel

1
Alors que le balisage en informatique est une approche relativement nouvelle, le balisage est également un concept hérité des livres; dans les livres, cela s'appelle l'indexation.
Domchi

6
les bibliothèques utilisent des "balises" depuis ... eh bien je ne sais pas mais depuis longtemps. Pensez aux cartes de livre (désolé, je ne sais pas comment on les appelle en anglais) étiquetées "livres sur xxx".
nico

80

Je pense que nous considérons cela de la mauvaise façon et tirons les mauvaises conclusions. Si je comprends bien, le cycle continue:

Idée -> première mise en œuvre -> adoption minoritaire -> masse critique -> produit de base

De la toute première idée à la marchandise, vous avez souvent des siècles, en supposant que l'idée arrive à ce stade. Da Vinci a peut-être dessiné une sorte d'hélicoptère en 1493, mais il a fallu environ 400 ans pour obtenir une véritable machine capable de se soulever du sol.

De la première description d'un sous-marin par William Bourne en 1580 à la première mise en œuvre en 1800, vous avez 220 ans et les sous-marins actuels n'en sont encore qu'à leurs balbutiements: nous ne savons presque rien des voyages sous-marins (avec 2/3 de la planète sous-marine, pensez à l'immobilier potentiel;).

Et rien ne dit qu'il n'y avait pas d'idées antérieures, beaucoup plus anciennes dont nous n'avions jamais entendu parler. Basé sur certaines légendes, il semble qu'Alexandre le Grand ait utilisé une sorte de cloche de plongée en 332 avant JC (ce qui est l'idée de base d'un sous-marin: un appareil pour transporter des personnes et un approvisionnement en air sous la mer). En comptant cela, nous regardons 2000 ans de l'idée (même avec un prototype de base) au produit.

Ce que je dis, c'est que chercher aujourd'hui des implémentations, encore moins des produits, qui n'étaient même pas des idées avant 1980, c'est ... Je parie que l'algorithme de "tri rapide" a été utilisé par certains commis sans nom dans la Chine ancienne. Et alors?

Il y avait des ordinateurs en réseau il y a 40 ans, bien sûr, mais cela ne se comparait pas à Internet d'aujourd'hui. L'idée de base / la technologie était là, mais vous ne pouviez pas jouer à un jeu de Warcraft en ligne.

Je prétends que nous avons vraiment besoin de nouvelles idées dans la plupart des domaines de l'informatique, et j'aimerais connaître toutes les idées importantes et puissantes qui ont été faites récemment. Si nous ne pouvons pas vraiment les trouver, alors nous devrions demander "Pourquoi?" et "Que devons-nous faire?"

Historiquement, nous n'avons jamais été en mesure de les «trouver» aussi près de l'idée, aussi rapidement. Je pense que le cycle s'accélère, mais l'informatique est encore très jeune.

Actuellement, j'essaie de comprendre comment faire un hologramme (du genre Star Wars, sans aucun support physique). Je pense que je sais comment le faire fonctionner. Je n'ai même pas rassemblé les outils, les matériaux, le financement et pourtant, même si je devais réussir dans une certaine mesure, l'idée réelle aurait déjà plusieurs décennies, à tout le moins et les implémentations / technologies associées ont été utilisées pendant aussi longtemps .

Dès que vous commencez à répertorier les produits réels, vous pouvez être sûr que les concepts et les premières implémentations existaient il y a quelque temps. Peu importe.

Vous pourriez argumenter avec quelque raison que rien n'est nouveau, jamais, ou que tout est nouveau, toujours. C'est la philosophie et les deux points de vue peuvent être défendus.

D'un point de vue pratique, la vérité se situe quelque part entre les deux. La vérité n'est pas un concept binaire, la logique booléenne est damnée.

Les Chinois ont peut-être inventé la presse à imprimer il y a quelque temps, mais cela ne fait que 10 ans environ que la plupart des gens peuvent imprimer des photos en couleur décentes à la maison pour un prix raisonnable.

L'invention n'est nulle part et partout, selon vos critères et votre référentiel.


1
+1. Jetez un œil par exemple à l'iPad;) Voir stackoverflow.com/questions/432922/…
VonC

4
Si seulement il y avait un fav. réponse ... si seulement il y avait une option pour donner 2 votes positifs ...
tshepang

Très bonne réponse. Peut-être devrions-nous alors nous demander quelles nouvelles idées ont vu le jour au cours des 30 dernières années (pas de nouveaux produits / inventions). Et comme il est trop difficile de dire s'ils seront ou non "significatifs" ou révolutionnaires avant même d'être construits ... nous pouvons peut-être spéculer, puis décider où dépenser plus d'énergie.
mpen

3
Il y a eu d'innombrables nouvelles idées incroyables au cours des 30 dernières années, mais il n'y a pas forcément eu le temps de voir lesquelles sont importantes. Choisissez n'importe quel domaine de l'informatique et parcourez simplement les recherches publiées l'année dernière, et vous ne manquerez pas de nouvelles idées, des petites améliorations aux révisions complètes. Cependant, les années 80 et avant semblent si révolutionnaires et emballées parce que ces idées ont maintenant porté leurs fruits et sont omniprésentes, elles semblent donc importantes. Nous aurons cette même discussion dans 30 ans, lorsque les idées se seront transformées en merveilleuses inventions.
Perrako

@Mark: Qu'est-ce qui constitue une "nouvelle idée"? Chaque idée, morceau de code, organisme biologique a un contexte qui, d'un point de vue, ne ferait rien de vraiment nouveau. Le problème avec la question du professeur Kay est que la philosophie derrière le feu que lui et ses collègues de Xerox Parc (et Engelbart 10 ans avant lui) ont allumé sous l'industrie de la technologie / informatique a brûlé comme un feu incontrôlé et a changé le monde, le le contexte. De véritables idées nouvelles n'ont aucun impact, donc aucun de nous n'en a entendu parler - OS écrits avec des preuves de leur exactitude et de la sécurité du noyau, architectures non ARM, non x86, etc.
Jared Updike

68

Algorithme de Page Rank de Google . Bien qu'il puisse être considéré comme un simple raffinement des moteurs de recherche d'exploration du Web, je voudrais souligner qu'ils ont également été développés après 1980.


"Juste un raffinement" est souvent un oxymore. Dans ce cas, le raffinement est la technologie. Internet était un endroit beaucoup plus effrayant avant que Google n'apporte cet algorithme de classement des pages (et a fourni les résultats rapidement et sans encombrement de pages, et toutes les autres draguées que nous utilisons pour avoir à utiliser d'autres moteurs de recherche dans le passé).
David Berger

19
je ne pense pas que vous sachiez ce qu'est un oxymore.
Jason

1
Vous souvenez-vous d'altavista et de cette petite entreprise inconnue: yahoo?
Esteban Küber le

@voyager: Hotbot et Lycos n'étaient pas mal non plus.
Dean J

2
@martin c'est un oxymore non-oxymore . la contradiction est dans la définition: ninjawords.com/oxymoron
Jason

66

DNS, 1983 et les avancées dépendantes comme la résolution de l'hôte de messagerie via des enregistrements MX au lieu de bang-chemins. *frémir*

Zeroconf fonctionnant au dessus de DNS, 2000. Je branche mon imprimante au réseau et mon ordinateur portable le voit. Je démarre un serveur Web sur le réseau et mon navigateur le voit. (En supposant qu'ils diffusent leur disponibilité.)

NTP (1985) basé sur l'algorithme de Marzullo (1984). Temps précis sur les réseaux nerveux.

La molette de défilement de la souris, 1995. L'utilisation de souris sans elle semble si primitive. Et non, ce n'est pas quelque chose que l'équipe d'Engelbart a pensé et oublié de mentionner. Du moins pas quand j'ai demandé à quelqu'un qui faisait partie de l'équipe à l'époque. (C'était lors d'un événement Engelbart en 1998 ou à peu près. J'ai pu manipuler l'une des premières souris.)

Unicode, 1987, et ses avancées dépendantes pour différents types d'encodage, de normalisation, de texte bidirectionnel, etc.

Oui, il est assez courant que les gens utilisent les 5 tous les jours.

Ces "idées sont-elles vraiment nouvelles?" Après tout, il y avait des souris, il y avait des encodages de caractères, il y avait un chronométrage du réseau. Dites-moi comment je peux faire la distinction entre "nouveau" et "vraiment nouveau" et je répondrai à celle-ci pour vous. Mon intuition dit que ce sont assez nouveaux.

Dans les domaines plus petits, il y a des progrès facilement plus récents. En bioinformatique, par exemple, Smith-Waterman (1981) et plus particulièrement BLAST (1990) rendent effectivement le domaine possible. Mais il semble que vous demandiez des idées qui sont très larges dans tout le domaine de l'informatique, et les fruits bas sont cueillis en premier. Il en est toujours ainsi avec un nouveau domaine.


63

Et les appareils photo numériques?

Selon Wikipedia, le premier véritable appareil photo numérique est apparu en 1988, avec des appareils photo grand public devenus abordables à la fin des années 1990.


Mais l'idée, l'invention et les brevets étaient là au début des années 70 (Voir la section "Développement précoce")
saschabeaumont

10
Appareil photo numérique? On se demande, à en juger par les votes positifs, ce que les gens comprennent aujourd'hui par le terme «informatique».
MaD70

1
Les images sont ce sur quoi l'informatique grand public moderne est basée. Sans webcam, sans viseur ni reflex coûteux (pour les journaux), les consommateurs modernes n'auraient pas vraiment besoin d'ordinateurs.
Marius

14
@ MaD70: Je suppose que vous n'aimez pas tellement la photographie, n'est-ce pas? Pour n'en nommer que quelques-uns: reconnaissance automatique des visages, autofocus, "mode panoramique", balance des blancs automatique ... ça tombe définitivement dans l'informatique.
nico

6
Désolé, le premier prototype d'appareil photo numérique a été fabriqué par Kodak en 1975, apparemment. pluggedin.kodak.com/post/?ID=687843
Mark Ransom

50

Langages d'ombrage modernes et prévalence des GPU modernes.

Le GPU est également un supercalculateur parallèle à faible coût avec des outils comme CUDA et OpenCL pour un code parallèle rapide de haut niveau . Merci à tous ces joueurs qui font baisser les prix de ces merveilles matérielles de plus en plus impressionnantes. Au cours des cinq prochaines années, j'espère que chaque nouvel ordinateur vendu (et les iPhones aussi) aura la capacité d'exécuter du code massivement parallèle comme hypothèse de base, un peu comme la couleur 24 bits ou le mode protégé 32 bits.


Essayez-le. Vous ne l'aimerez pas. Les systèmes multicœurs sont beaucoup plus rapides pour la plupart des problèmes du monde réel. YMMV. Bon pour les graphismes, et pas grand chose d'autre.
xcramps

Il y a une raison pour laquelle ils sont appelés GPU et non PPU ... (Unités de traitement parallèle). La plupart des gens n'ont pas la patience et / ou les compétences pour écrire du bon code pour eux. Bien qu'il existe un nombre croissant de projets de recherche qui explorent l'utilisation de GPUS à des fins non graphiques.
RCIX

3
Je l'ai essayé. Je l'ai aimé. Je peux exécuter tout mon code Matlab sur le GPU, sans aucune modification du code source, à l'exception de quelques modifications de transtypage que vous pouvez effectuer avec un moteur de recherche. Google "Matlab GPU computing".
Contango

3
Je suis d'accord avec l'OP. Le pipeline programmable, alors que nous pouvons maintenant tenir pour acquis, a complètement changé le monde des graphiques, et il semble qu'il pourrait continuer à changer d'autres parties du monde de la programmation. @xcramps: Je pense que je manque quelque chose; la dernière fois que j'ai vérifié, les GPU étaient des systèmes multicœurs. Juste avec beaucoup plus de cœurs. Un peu comme ... des superordinateurs. Mais je suppose que ceux-ci ne sont pas vraiment utilisés pour quoi que ce soit dans le monde réel ...
Perrako

Deux ans plus tard (pas 5 comme je l'ai dit) et les appareils mobiles livrés avec OpenCL sont à l'horizon: macrumors.com/2011/01/14/…
Jared Updike

43

La compilation JIT a été inventée à la fin des années 80.


Eh bien, tout le travail sur la mise en œuvre du langage Self (qui a été entièrement compilé JIT) était incroyable, et son utilité peut être vue aujourd'hui pour Javascript dans Google V8. Et cela date de la fin des années 80 et du début des années 90.
Blaisorblade

7
J'ai vu cette idée pour la première fois dans le dernier chapitre du livre de John Allen, Anatomy of Lisp, publié dans les années 70. Il a donné une référence à une thèse de doctorat des années 70 en tant que créateur.
Darius Bacon

Peut-être devrions-nous l'affiner pour une "compilation JIT adaptative basée sur les profils" comme le Self JIT ou le Java Hotspot de Suns
kohlerm

34
L'une des thèses de doctorat au début des années 1970 qui avait JIT était celle de Jim Mitchell à la CMU - il est ensuite allé au PARC
Alan Kay le

2
Nori, KV; Ammann, U .; Jensen; Nageli, H. (1975). Notes de mise en œuvre du compilateur Pascal P. Zurich: Eidgen. Technologie. Hochschule. (Merci wikipedia)
Arafangion

42

Répondre aux deux questions sur «Pourquoi la mort de nouvelles idées» et «que faire à ce sujet»?

Je soupçonne qu'une grande partie du manque de progrès est due à l'afflux massif de capitaux et à la richesse ancrée dans l'industrie. Cela semble contre-intuitif, mais je pense que c'est devenu la sagesse conventionnelle que toute nouvelle idée ait un coup; s'il ne réussit pas du premier coup, il ne peut pas revenir. Il est acheté par quelqu'un avec des intérêts bien ancrés, ou tout simplement des échecs, et l'énergie a disparu. Quelques exemples sont les ordinateurs tablettes et les logiciels bureautiques intégrés. Le Newton et plusieurs autres avaient un réel potentiel, mais ont fini par perdre leur droit d'aînesse (par attrition compétitive et mauvais jugement), tuant des catégories entières. (J'aimais particulièrement le cadre d'Ashton Tate; mais je suis toujours coincé avec Word et Excel).

Que faire? La première chose qui me vient à l'esprit est Wm. Le conseil de Shakespeare: "Tuez tous les avocats". Mais maintenant, ils sont trop bien armés, je le crains. En fait, je pense que la meilleure alternative est de trouver une sorte d'initiative Open Source. Ils semblent mieux maintenir l'accessibilité et l'amélioration progressive que les alternatives. Mais l'industrie est devenue suffisamment grande pour qu'une sorte de mécanisme de collaboration organique soit nécessaire pour obtenir une traction.

Je pense également qu'il y a une dynamique qui dit que les intérêts enracinés (en particulier les plates-formes) nécessitent une quantité substantielle de changement - le taux de désabonnement - pour justifier la poursuite des flux de revenus; et cela absorbe beaucoup d'énergie créative qui aurait pu être dépensée de meilleures façons. Regardez combien de temps nous passons sur l'eau avec la dernière itération de Microsoft ou Sun ou Linux ou Firefox, apportant des modifications aux systèmes qui fonctionnent pour la plupart déjà bien. Ce n'est pas parce qu'ils sont mauvais, c'est juste intégré à l'industrie. L'équilibre stable n'existe pas; tous les mécanismes de rétroaction sont positifs, favorisant le changement par rapport à la stabilité. (Avez-vous déjà vu une fonctionnalité retirée ou un changement retiré?)

L'autre indice qui a été discuté sur l'OS est le syndrome de Skunkworks (réf: Geoffrey Moore): une véritable innovation dans les grandes organisations presque toujours (90% +) se manifeste dans des projets non autorisés qui émergent spontanément, alimentés exclusivement par une initiative individuelle ou en petit groupe ( et le plus souvent opposé par les hiérarchies de gestion formelles). Donc: Questionner l'autorité, Buck le système.


J'ai adoré Framework, et vous pouvez toujours l'acheter, mais c'est cher.
Norman Ramsey

7
Il est toujours plus facile d'avoir de nouvelles idées dans un nouveau domaine de connaissances, donc un très grand nombre d'idées importantes sont nées dans les années 1950 et 1960. Nous pouvons simplement faire beaucoup mieux pour la plupart d'entre eux maintenant.
David Thornley

6
Je pense que cette réponse et les commentaires sont très bien formulés.
Alan Kay

5
@David: "beaucoup mieux maintenant". Et moins cher. Et plus petit. Ce qui permet de nouvelles façons de faire d' autres choses mieux. Par exemple 10 chansons -> 1000 chansons -> 1000 albums dans ma poche, c'est sûr une question de degré mais cela change tout, même si quelqu'un avant 1980 a montré que cela pouvait être fait, en théorie, sur un ordinateur central géant. Les morceaux ont peut-être été là mais certaines inventions, comme l'iPod, sont plus que la somme des parties.
Jared Updike

@Alan Kay, @le dorfier: il me semble qu'un contre-exemple partiel avec cette attitude enracinée est la décision de Donald Knuth d'incrémenter asymptotiquement le numéro de version de TeX vers pi. Mais c'est une institution, pas une entreprise. Je suis consterné par Mozilla et Google Race pour la version 100 de leurs navigateurs, tandis que la normalisation intelligente et créative ainsi que l'innovation dans l'accès aux données et la transformation sont à la traîne.
ogerard

36

Une chose qui m'étonne est l'humble feuille de calcul. Les non-programmeurs construisent des solutions sauvages et merveilleuses aux problèmes du monde réel avec une simple grille de formule. Répliquer leurs efforts dans une application de bureau prend souvent 10 à 100 fois plus de temps qu'il n'en a fallu pour écrire la feuille de calcul et l'application résultante est souvent plus difficile à utiliser et pleine de bogues!

Je crois que la clé du succès de la feuille de calcul est l'analyse automatique des dépendances. Si l'utilisateur de la feuille de calcul était obligé d'utiliser le modèle d'observateur, il n'aurait aucune chance de le faire correctement.

Ainsi, la grande avancée est l'analyse automatique des dépendances. Maintenant, pourquoi aucune plate-forme moderne (Java, .Net, services Web) n'a intégré cela au cœur du système? Surtout à une époque de mise à l'échelle par parallélisation - un graphique des dépendances conduit à un recalcul parallèle de manière triviale.

Edit: Dang - juste vérifié. VisiCalc est sorti en 1979 - supposons que c'est une invention post-1980.

Edit2: Semble que la feuille de calcul est déjà notée par Alan de toute façon - si la question qui l'a acheté sur ce forum est correcte!


5
J'avais pensé à cette réponse, mais Visicalc a été libéré juste un peu avant la date limite de 1980. ( en.wikipedia.org/wiki/VisiCalc )
Oddthinking

mais cela révèle un point intéressant: le simple fait de présenter un moyen simple d'afficher et de manipuler des données a créé une classe d'outils incroyablement utile. Y a-t-il une autre idée «habilitante» comme celle-ci? en avons-nous besoin? Je le pense.
Javier


Je suis de tout coeur. L'analyse automatique des dépendances pourrait et devrait faire partie des langages de programmation modernes.
Jesse Pepper

1
@hasen j: Excel est une feuille de calcul Soit dit en passant, il existe des plates-formes modernes qui gardent les dépendances entre les calculs - par exemple Haskel (Excel et les langages fonctionnels ont beaucoup en commun - par exemple les fonctions pures et l'évaluation paresseuse). Excel est juste beaucoup plus intuitif que Haskel :)
ajuc

36

Logiciel:

  • Virtualisation et émulation

  • Transferts de données P2P

  • projets communautaires tels que Wikipedia, SETI @ home ...

  • moteurs de recherche et de recherche sur le Web, c'est-à-dire indexation d'informations diffusées dans le monde entier

Matériel:

  • le PC modulaire

  • E-paper


6
La virtualisation a été implémentée sur VM / CMS en 1972. Qu'entendez-vous par "le PC modulaire"?
Hudson

Je pense que par "le PC modulaire", il veut dire que n'importe qui peut acheter des composants presque interchangeables et construire son propre ordinateur.
Psycho_Penguin

14
Le P2P a été inventé au Xerox PARC dans les années 70 - les Altos étaient tous des P2P et les ressources de fichiers et les imprimantes et "routeurs" étaient tous des P2P Altos
Alan Kay

1
J'ai vu "E-paper" et j'ai pensé, quoi? comment cela me touche-t-il au jour le jour. Je suis content qu'il existe, mais les liseuses électroniques ne sont pas des technologies très importantes à grande échelle, par rapport au téléphone portable ou à l'iPod.
Jared Updike

3
Je voudrais souligner qu'il y a environ 40 à 50 ans, tout le monde faisait encore des mathématiques sur papier et disait la même chose à propos des ordinateurs ...
RCIX

36

La redécouverte de la monade par les chercheurs en programmation fonctionnelle. La monade a contribué à permettre à un langage pur et paresseux (Haskell) de devenir un outil pratique; il a également influencé la conception des bibliothèques de combinateurs (les combinateurs d'analyseurs monadiques ont même trouvé leur chemin en Python).

«Un compte-rendu théorique des modules de programme» de Moggi (1989) est généralement reconnu pour avoir mis en évidence les monades pour un calcul efficace; Le travail de Wadler (par exemple, "Imperative Functional Programming" (1993)) a présenté les monades comme un outil pratique.


36

Logiciel de rétrécissement

Avant 1980, les logiciels étaient principalement écrits spécialement. Si vous dirigiez une entreprise et vouliez informatiser, vous obtiendrez généralement un ordinateur, un compilateur et une base de données, et vous ferez écrire vos propres trucs. Les logiciels d'entreprise étaient généralement écrits pour s'adapter aux pratiques commerciales. Cela ne veut pas dire qu'il n'y avait pas de logiciel en conserve (j'ai travaillé avec SPSS avant 1980), mais ce n'était pas la norme, et ce que j'ai vu avait tendance à être un logiciel d'infrastructure et de recherche.

De nos jours, vous pouvez vous rendre dans une boutique informatique et trouver, sur l'étagère, tout ce dont vous avez besoin pour gérer une petite entreprise. Il n'est pas conçu pour s'intégrer parfaitement à toutes les pratiques que vous aviez auparavant, mais il fonctionnera bien une fois que vous aurez appris à travailler plus ou moins en fonction de son flux de travail. Les grandes entreprises sont beaucoup plus proches du film rétractable qu'auparavant, avec des choses comme SAP et PeopleSoft.

Ce n'est pas une rupture nette, mais après 1980, il y a eu un changement très net de logiciels personnalisés coûteux vers des logiciels standard à faible coût, et la flexibilité est passée des logiciels aux procédures commerciales.

Cela a également affecté l'économie des logiciels. Les solutions logicielles personnalisées peuvent être rentables, mais elles ne sont pas évolutives. Vous ne pouvez facturer qu'un seul client et vous ne pouvez pas vendre la même chose à plusieurs clients. Avec le logiciel de film rétractable, vous pouvez vendre beaucoup et beaucoup de la même chose, amortissant les coûts de développement sur une très grande base de vente. (Vous devez fournir une assistance, mais cela évolue. Considérez-le simplement comme un coût marginal de vente du logiciel.)

Théoriquement, là où il y a de gros gagnants d'un changement, il y aura des perdants. Jusqu'à présent, le secteur des logiciels a continué de croître, de sorte qu'au fur et à mesure que les zones se banalisent, d'autres zones s'ouvrent. Il est probable que cela prenne fin un jour, et les développeurs modérément talentueux se retrouveront dans une vraie crise, incapables de travailler pour les grands garçons et évincés du marché. (Cela se produit probablement pour d'autres domaines; je soupçonne que la demande de comptables est beaucoup plus petite qu'elle ne le serait sans QuickBooks et autres.)


Turbo Pascal & C à 100 $ sur un système MS-DOS a provoqué une étiquette de prix de 100 $ sur un compilateur C pour un C / PM d'autres.
CW Holeman II

Désolé, je suis sûr que Microsoft vendait des logiciels sous film rétractable avant 1980. Non pas qu'ils soient les seuls.
Mark Ransom

34

En dehors des innovations matérielles, j'ai tendance à constater qu'il y a peu ou rien de nouveau sous le soleil. La plupart des idées vraiment importantes remontent à des gens comme von Neumann et Alan Turing.

Beaucoup de choses qui sont étiquetées `` technologie '' de nos jours ne sont en fait qu'un programme ou une bibliothèque que quelqu'un a écrit, ou le rechapage d'une vieille idée avec une nouvelle métaphore, acronyme ou nom de marque.


3
Vous ne pouvez pas voir la forêt car tous les arbres gênent ... Les blocs de construction sont à peu près les mêmes, mais le résultat a changé / évolué.
Johan

8
... C'est la définition de la technologie;) "l'application pratique des connaissances ..."
steamer25

1
Je suis d'accord qu'il est temps pour la prochaine grande chose. Je suis fatigué de tout le réemballage de choses oubliées du passé comme quelque chose de nouveau. Comme Javascript = AJAX.
James

32

Les vers informatiques ont été recherchés au début des années quatre-vingt du siècle dernier au Xerox Palo Alto Research Center.

Extrait des programmes "Worm" de John Shoch et Jon Hupp - Early Experience with a Distributed Computation "(Communications of the ACM, March 1982 Volume 25 Number 3, pp.172-180, mars 1982):

Dans The Shockwave Rider , J. Brunner a développé la notion d'un programme omnipotent de "ténia" se déplaçant à travers un réseau d'ordinateurs - une idée qui peut sembler assez dérangeante, mais qui dépasse également largement nos capacités actuelles. Le modèle de base, cependant, reste très provocateur: un programme ou un calcul qui peut passer d'une machine à l'autre, mobiliser les ressources selon les besoins et se reproduire si nécessaire.

Dans la même veine, nous avons décrit un jour un modèle de calcul basé sur le film de science-fiction classique, The Blob: un programme qui a commencé à fonctionner sur une seule machine, mais à mesure que son appétit pour les cycles informatiques augmentait, il pouvait atteindre, trouver des machines inutilisées et se développer pour englober ces ressources. Au milieu de la nuit, un tel programme pourrait mobiliser des centaines de machines dans un même bâtiment; le matin, alors que les utilisateurs récupéraient leurs machines, le "blob" devait reculer de manière ordonnée, rassemblant les résultats intermédiaires de son calcul. Coincé dans une ou deux machines pendant la journée, le programme pourrait émerger à nouveau plus tard au fur et à mesure que les ressources deviendraient disponibles, élargissant à nouveau le calcul. (Cette affinité pour l'exploration nocturne a conduit un chercheur à les décrire comme des "programmes de vampires".)

Citant Alan Kay: "La meilleure façon de prédire l'avenir est de l'inventer."


@Bobby: Selon les bases de la sécurité informatique, 2006, Lehtinen, Russell & Gangemi, ce travail a commencé "vers 1980". Donc, si vous ignorez les précurseurs de science-fiction, cela compte.
Charles Stewart

31

De meilleures interfaces utilisateur.

Les interfaces utilisateur d'aujourd'hui sont toujours nulles. Et je ne parle pas de petites manières mais de grandes manières fondamentales. Je ne peux pas m'empêcher de remarquer que même les meilleurs programmes ont encore des interfaces qui sont extrêmement complexes ou qui nécessitent beaucoup de réflexion abstraite d'autres manières, et qui n'abordent tout simplement pas la facilité des outils non logiciels conventionnels.

Certes, cela est dû au fait que le logiciel permet de faire bien plus que les outils conventionnels. Ce n'est cependant pas une raison pour accepter le statu quo. De plus, la plupart des logiciels ne sont tout simplement pas bien faits.

En général, les applications manquent encore d'un certain sentiment de «marche juste» trop orientées par ce qui peut être fait plutôt que par ce qui devrait être fait. Un point qui a été soulevé à maintes reprises, et qui n'est toujours pas résolu, est le point de sauver. Les applications se bloquent, détruisant les heures de travail. J'ai l'habitude d'appuyer sur Ctrl + S toutes les quelques secondes (bien sûr, cela ne fonctionne plus dans les applications Web). Pourquoi dois-je faire ça? C'est stupidement stupéfiant. Il s'agit clairement d'une tâche d'automatisation. Bien sûr, l'application doit également enregistrer un diff pour chaque modification que je fais (essentiellement une liste d'annulation infinie) au cas où je ferais une erreur.

Résoudre ce problème n'est même pas vraiment difficile. Il serait juste difficile de l'implémenter dans chaque application car il n'y a pas de bonne API pour le faire. Les outils de programmation et les bibliothèques doivent s'améliorer considérablement avant de permettre une implémentation sans effort de tels efforts sur toutes les plates-formes et programmes, pour tous les formats de fichiers avec un stockage de sauvegarde arbitraire et aucune interaction utilisateur requise. Mais c'est une étape nécessaire avant de commencer enfin à écrire de «bonnes» applications au lieu de simplement adéquates.

Je crois qu'Apple se rapproche actuellement du sentiment de «fonctionne juste» à certains égards. Prenez par exemple leur dernière version d'iPhoto qui dispose d'une reconnaissance faciale qui regroupe automatiquement les photos des personnes qui y apparaissent. Il s'agit d'une tâche classique que l'utilisateur ne souhaite pas effectuer manuellement et ne comprend pas pourquoi l'ordinateur ne le fait pas automatiquement. Et même iPhoto est encore très loin d'une bonne interface utilisateur, car cette fonctionnalité nécessite toujours une confirmation ultime de l'utilisateur (pour chaque photo!), Car le moteur de reconnaissance des visages n'est pas parfait.


3
Picasa de Google a cela depuis un certain temps. En fait, picasa a tellement d'autres fonctionnalités qui rampent lentement dans iPhoto.
akshaykarthik

30

Systèmes HTM ( Hiearchical Temporal Memory ).

Une nouvelle approche de l'intelligence artificielle, initiée par Jeff Hawkins à travers le livre " On Intelligence ".

Désormais actif en tant que société appelée Numenta ces idées sont mises à l'épreuve par le développement de la "vraie" IA, avec une invitation à la communauté à participer en utilisant le système via des SDK.

Il s'agit davantage de construire l'intelligence artificielle à partir de zéro, plutôt que d'essayer d'imiter le raisonnement humain.


11
Quand ils font quelque chose d'intéressant, je serai le premier et le plus fort leader des applaudissements
Alan Kay

@AlanKay Eh bien, il semble que HTM soit déjà utilisé dans de vrais produits. Par exemple: vitamind inc vous permet de reconnaître des objets ou des personnes dans des séquences de vidéosurveillance. Vitamindinc est entièrement alimenté par HTM. Dans cet article , vous pouvez voir que HTM bat en fait l'approche SVM pour la reconnaissance manuscrite sur des ensembles de données tels que USPS. Le fait qu'il soit à la fois d'inspiration biologique et de grande valeur pratique me souffle l'esprit. Je pense que vous pouvez commencer à applaudir dès maintenant.
Benjamin Crouzier

26

L'utilisation de la physique dans l'interaction homme-machine pour fournir une métaphore alternative et compréhensible. Ceci combiné avec des gestes et des haptiques se traduira probablement par un remplacement de la métaphore actuelle de l'interface graphique commune inventée dans les années 70 et couramment utilisée depuis le milieu à la fin des années 80.

La puissance de calcul n'était pas présente en 1980 pour rendre cela possible. Je pense que les Jeux ont probablement ouvert la voie ici. Un exemple peut facilement être vu dans l'interaction du défilement de liste dans l'iPod Touch / iPhone. Le mécanisme d'interaction repose sur l'intuition de la façon dont l'élan et la friction fonctionnent dans le monde réel pour fournir un moyen simple de faire défiler une liste d'éléments, et l'utilisabilité repose sur le geste physique qui provoque le défilement.


Le premier exemple auquel je puisse penser est le kit de réalité alternative de Randy Smith, construit en Smalltalk-80 au PARC en '86 ou '87. Vous pouvez implémenter de nouveaux objets avec une métaphore physique. Chaque objet avait un emplacement, une masse, un élan et un menu contextuel pour interagir avec lui via son interface de message.
PanCrit

25

Je crois que les tests unitaires, le TDD et l'intégration continue sont des inventions importantes après 1980.


2
Tester d'abord était une méthode très ancienne qui a été ressuscitée je crois.
Johnno Nolan

C'est une chose d'ingénierie logicielle, pas une chose "informatique"
SquareCog

7
Je suis d'accord avec John, par exemple Brooks décrit une approche test-first dans The Mythical Man-Month (1975).
Fabian Steeg

28
L'intégration continue a d'abord été réalisée sérieusement dans BBN Lisp 1.85 à la fin des années 60, qui est devenu Interlisp au PARC. Smalltalk au PARC dans les années 70 était également un système d'intégration continue.
Alan Kay

3
TDD n'est devenu généralement utile que lorsque les ordinateurs sont devenus assez rapides pour exécuter de petits tests si rapidement que vous êtes prêt à les exécuter encore et encore.
Jay Bazuzi

25

Téléphones portables.

Alors que le premier brevet de "téléphone sans fil" date de 1908, et qu'ils cuisinaient depuis longtemps (0G en 1945, 1G lancé au Japon en 1979), les téléphones portables numériques 2G n'apparaissent qu'en 1991. Les SMS n'existent pas jusqu'en 1993, et l'accès à Internet est apparu en 1999.


4
Le Japon en 1979, c'est-à-dire avant 1980. Nous recherchons de nouvelles inventions - pensez à des laboratoires de recherche, à des universités, à des démonstrations pratiques de demandes de brevet ... tout cela sera antérieur à la disponibilité sur le marché de masse d'un certain nombre d'années.
saschabeaumont le

1
La différence entre 1G et 2G est à peu près aussi grande que la différence entre un ordinateur analogique et numérique. Je pense que 2G (1991) mérite le statut de "nouvelle" invention.
Domchi

Et dépend des technologies d'économie d'énergie et de bonnes batteries.
Johan

23

J'ai commencé à programmer le 2 janvier 1980. J'ai essayé de penser à de nouvelles inventions importantes au cours de ma carrière. J'ai du mal à penser à tout. La plupart de ce que je considère comme significatif ont été inventés avant 1980 mais n'ont ensuite été largement adoptés ou améliorés qu'après.

  1. Interface utilisateur graphique.
  2. Traitement rapide.
  3. Grande mémoire (j'ai payé 200,00 $ pour 16k en 1980).
  4. Petites tailles - téléphones portables, Pocket PC, iPhones, Netbooks.
  5. Grandes capacités de stockage. (Je suis passé d'une grande disquette de 90k à une clé USB de 8 Go.
  6. Processeurs multiples. (Presque tous mes ordinateurs en ont plus d'un maintenant, le logiciel a du mal à les occuper).
  7. Interfaces standard (comme USB) pour connecter facilement des périphériques matériels.
  8. Plusieurs écrans tactiles.
  9. Connectivité réseau - conduisant à l'explosion d'Internet au milieu des années 90.
  10. IDE avec Intellisense et compilation incrémentielle.

Alors que le matériel s'est considérablement amélioré, l'industrie du logiciel a eu du mal à suivre. Nous avons des années-lumière d'avance sur 1980, mais la plupart des améliorations sont des améliorations plutôt que des inventions. Depuis 1980, nous avons été trop occupés à appliquer ce que les progrès nous ont permis de faire plutôt qu'à inventer. En soi, la plupart de ces inventions incrémentielles ne sont ni importantes ni puissantes, mais si vous regardez en arrière au cours des 29 dernières années, elles sont assez puissantes.

Nous devons probablement adopter les améliorations progressives et les diriger. Je crois que des idées vraiment originales proviendront probablement de personnes peu exposées aux ordinateurs et qu'elles sont de plus en plus difficiles à trouver.


«les idées originales proviendront probablement de personnes peu exposées aux ordinateurs», c'est vrai. et encore plus triste puisque la majeure partie de cette exposition «engourdissante» concerne les fenêtres / bureaux.
Javier

1
Quelques dates pour des inventions antérieures: l'interface graphique d'Engelbart a été démontrée en 1968 et le Xerox PARC Alto a été développé en 1973. Plusieurs processeurs sont nouveaux sur le bureau, mais pas dans la salle des machines - le cluster VAX a été disponible pour la première fois en 1978.
Hudson

Vous programmiez avant ma naissance. Dang j'ai un long chemin à parcourir.
Kezzer

Aie. Je n'ai commencé qu'à 26 ans, maintenant je me sens vraiment vieux. :)
bruceatk

Avez-vous pris en compte l'inflation pour cette puce de mémoire de 20000 $?
Tim Tonnesen,

22

Rien.

Je pense que c'est parce que les gens ont changé d'attitude. Les gens croyaient que s'ils trouvaient cette "grande idée", ils la trouveraient riche. Aujourd'hui, les gens croient que c'est l'exécution et non la découverte qui rapporte le plus. Vous avez des mantras tels que "les idées sont un centime" et "la deuxième souris prend le fromage". Les gens se concentrent donc sur l'exploitation des idées existantes plutôt que sur de nouvelles.


3
Un grand nombre des idées existantes n'ont tout simplement pas encore été mises en œuvre.
Breton

3
Il y a toujours quelques fous qui trouveront de nouvelles idées, ils ne peuvent tout simplement pas s'en empêcher ;-)
Johan

Mais ils sont fous, donc ils ne peuvent pas vendre leurs idées parce que personne ne les écoutera.
Adam Jaskiewicz

Les idées sont plutôt du ressort des artistes. La mise en œuvre pratique est ce que nous faisons. Regarder les ingénieurs pour de nouvelles idées, c'est pêcher dans le mauvais étang. Pour de nouvelles idées brillantes, lisez Sf et découvrez comment cela pourrait être fait (je pense que beaucoup de choses pourraient être faites). Cependant, la mise en œuvre d'une idée folle peut prendre des années. Les artistes peuvent échapper à la vente d'idées et de rêves, mais les ingénieurs devraient proposer des produits ... et ils doivent aussi manger.
Sylverdrag

16

Développement communautaire Open Source.


2
En fait, les disques du groupe d'utilisateurs SIG / M précèdent ce que nous appelons maintenant open source. Il contenait des centaines de disques (de la variété des disquettes) remplis de logiciels CP / M, en grande partie open source (bien que le terme "open source" n'existait pas à l'époque).
Mike Thompson

2
Dans le sens d'une coopération ouverte et du développement entre les personnes qui avaient accès à un ordinateur, cela ressemble beaucoup aux groupes d'utilisateurs d'IBM dans les années 1960. C'est juste que plus de gens peuvent se permettre des ordinateurs maintenant.
David Thornley

2
D'accord avec David, c'est devenu de plus en plus important maintenant que les ordinateurs sont passés des domaines de l'éducation et de la science au monde des affaires, ce qui a donné naissance à des logiciels "à source fermée", confondant les licences. Il était toujours là, il n'avait juste pas besoin de nom jusqu'à ce que les avocats s'impliquent.
saschabeaumont

1
Oui, je dois également être d'accord avec David ici. L'Open Source est bien antérieur à 1980. Il est antérieur d'au moins 20 ans. Je pensais que c'était les années 50 et non les années 60.
Brendan Enrick

16

L' iPad (sorti en avril 2010): un tel concept est sûrement absolument révolutionnaire!

texte de remplacement http://www.ubergizmo.com/photos/2010/1/apple-ipad//apple-ipad-05.JPG

Pas question pour Alan Kay de voir ça dans les années 1970!
Imaginez un tel "manipulateur d'informations personnel et portable" ...


...

Attendre? Quoi!? Le Dynabook tu dis?

texte alternatif

Pensé par Alan Kay dès 1968, et décrit en détail dans cet article de 1972 ??

NOOOooo ooooo ....

Oh bien ... tant pis.


Voir stackoverflow.com/questions/432922/… pour un contexte plus large illustré par cette réponse.
VonC

Bien sûr, l'idée existait avant (par exemple, le newton de pomme); cependant, la technologie a progressé si loin qu'il est possible de construire un appareil grand public bon marché (et génial).
Nils
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.