Für Sie gelesen: How I Learned to Stop Worrying and Love Intelligible Failure

In einem Beitrag für die Issues in Science and Technology wirbt Adam Russel [1] für den Gedanken, dass bei den zahlreichen und am Modell der Defense Advanced Research Projects Agency (DARPA) ausgerichteten Initiativen zur Translation von Forschungsergebnissen in marktfähige Produkte erst einmal Fehlschläge mit einkalkuliert werden müssten. Ideen zu identifizieren, die funktionierten und darum sehr einflussreich sein würden, sei das erklärte Ziel aller ARPAs, doch die Wetten auf solche Ideen seien naturgemäß riskant. Wichtig sei allerdings, ob aus Ideen selbst dann Nutzen gezogen werden könne, wenn sie nicht funktionierten, ob also auch aus „Fehlern“ etwas zu lernen sei, das die Investitionen rechtfertige. Er schreibt: „Delivering such [new] technologies requires taking risky bets on ideas that could be big – if they work. The question, as I see it, is whether we can make them big even if they don’t work.” Es gäbe allerdings einen sehr leicht nachvollziehbaren Grund, warum ARPAs diesen Modus nicht in den Vordergrund ihrer Arbeit stellten, denn auch nur scheinbares Scheitern würde zu Kritik einladen; und bei einem nur geringen Grundvertrauen in die Einrichtung würde man dem gerne aus dem Weg gehen, was für die Organisation aber kontraproduktiv sei. Stattdessen, so Russel, müsse die Organisation aus Misserfolgen lernen, sie quantifizieren und kommunizieren, wie auch Fehlschläge zum Auftrag der jeweiligen ARPA beitragen würden. Dazu bedürfe es innerhalb der Organisation entsprechender Rückkopplungsschleifen.

Wenngleich er feststellt, dass es bislang noch an Rezepten fehle, wie eine erfolgreiche ARPA zusammengesetzt und organisiert sein müsse, macht Russel sechs Voraussagen zu charakteristischen Eigenschaften einer erfolgreichen ARPA, nämlich: 

  • sie vermittle in ihrer Gründungsgeschichte erstens Dringlichkeit und zweitens einen andauernden Bedarf;
  • sie sei dem sogenannten Heilmeier-Katechismus [2], also der Antwort auf simple Fragen wie „What are you trying to do?“ und „Who cares?“ verpflichtet;
  • sie sei nicht nur ein „Technologie-Laden“, sondern integriere auch menschliche Irrationalität, Emotionen und das Bedürfnis nach Zugehörigkeit;
  • sie akzeptiere eine Erfolgsquote zwischen 5 und 30 Prozent und sei darum auch nicht in erster Linie darauf aus, nur „erfolgversprechende“ Projekte zu fördern;
  • sie habe starke Fürsprecher*innen, die sich aber aus der Frage heraushielten, was gefördert werden solle und
  • sie habe neben den Programmmanagern noch eine ausreichende Anzahl (idealerweise im Verhältnis von 5:1) von fähigen Mitarbeiter*innen in Bereichen wie IT, Personal und Ausgestaltung von Verträgen.

Zum letzten Punkt führt Russel als Anthropologe und in Anlehnung an den Soziologen James Evans aus, der Erfolg einer ARPA hänge auch davon ab, inwieweit sie in der Lage sei, „Aliens“ zu integrieren. Diese „Außerirdischen“ unterschieden sich von den „normalen“ Expert*innen insofern, als sie sich aus einer komplexen Mischung aus echter Neugier, Unzufriedenheit mit ihren eigenen Disziplinen und einem Drang zur Problemlösung in neue Räume begeben würden, die mit dem bestehenden Denken nicht erschlossen werden könnten. Er schreibt: „While expertise has real value, experts may often be at a disadvantage with ARPA-worthy problems; they tend to be hedgehogs, who know one big thing.”


 

[1] Adam Russell ist Direktor der Abteilung für Künstliche Intelligenz am Information Sciences Institute der University of Southern California und war an der Einrichtung von drei Advanced Research Projects Agencies (ARPAs) beteiligt.

[2] Vgl. George H. Heilmeier, a former DARPA director (1975–1977), crafted a set of questions known as the “Heilmeier Catechism to help Agency officials think through and evaluate proposed research programmes.