Die Forschungsrealität ist, dass die Disziplinen, also, das kann man am Beispiel MINT sehr schön erläutern, längst miteinander vernetzt arbeiten. Nehmen Sie etwa den zentralen Bereich heute des sogenannten Scientific Computing.
Das bedeutet, ich will das mal an einem Beispiel erläutern aus der Forschung: Stellen Sie sich vor, Sie haben ein Laborexperiment, ganz unspektakulär. Da soll also ein Bakterium beispielsweise untersucht werden. Und das wäre sozusagen das N, dieses Labor. Und was heute mittlerweile hinzukommt, ist das M, das heißt, die Mathematisierung, etwa ein Ribosom als Teil einer Zelle, wird bis auf den atomaren Bereich zerlegt in die einzelnen, das wären in diesem Fall drei Millionen Atome. Dann kommen noch sechs Daten hinzu, Orts- und Geschwindigkeitskoordinaten für jedes Atom, dann sind wir bei 18 Millionen Zahlen. Das ist die Momentaufnahme dieses Ribosoms in der Modellierung. Wir haben die Bewegungsgleichungen dafür, und jetzt sind das dynamische Gleichungen in der Zeit. Wir wollen also modellieren, wie sich das Ribosom in der Zeit verändert. Das heißt, da werden Milliarden Datensätze daraus. Und jetzt kommt T und I dazu, also Technik und Informatik. Das lässt sich dann nur noch modellieren auf Großrechnern. Und Sie sehen also hier, wie diese Fächer ineinander greifen. Und ich halte das für eine wesentliche Herausforderung auch, das auf die Schulen herunter zu bringen, diese Vernetzung.
Wenn Sie sich die Beispiele, jetzt durchaus die spektakulären Beispiele der KI in den letzten Jahren ansehen, da war das ja vor einigen Jahren von IBM der Superrechner Deep Blue, der den amtierenden Schachweltmeister entthronte und dann dieselbe Firma kurz darauf mit Watson. Watson, ein Superrechner, der also in einem bestimmten Maß durchaus natürliche Sprache verstehen kann, und dann gab's dieses spektakuläre Frage- und Antwort-Spiel im amerikanischen Fernsehen, wo die menschlichen Champions geschlagen wurden. Nur, wenn man sich das ganze anschaut, was eigentlich dahintersteht, dann ist das nicht ein Superalgorithmus, der irgendwie vom Himmel gefallen ist, oder eine Art Informatik-Einstein erfunden hat, sondern das waren weitgehend bekannte linguistische Algorithmen, die parallel mit Expertensystemen ja angewendet wurden, um die gestellten Fragen in ihre Satzphrasen zu zerlegen und die Wahrscheinlichkeit für mögliche Antwortmuster zu berechnen. Dabei stand allerdings eine Speicherkapazität zur Verfügung, über die das menschliche Gehirn einfach so nicht verfügen kann.
Das ist einfach möglich geworden durch das exponentielle Wachstum der Speicherkapazitäten, der Rechnerkapazitäten, die heute möglich sind.
Man spricht von einer von-Neumann-Bottleneck, was mit der klassischen von-Neumann-Computerarchitektur zusammenhängt, die nach wie vor in all unseren Smartphones, Superrechnern usw. realisiert ist. Und dort wird also sauber zwischen dem Prozessor, der die Rechnungen durchführt, und dem Speicher unterschieden. Nur, dabei geht natürlich ungeheuer viel Zeit und auch Energie verloren, ungeheuer viel deshalb, nicht in dem einzelnen Smartphone, aber wenn wir die Millionen von Smartphones zusammennehmen und all unsere Superrechner, geht also durch diese notwendige Übertragung zwischen beiden also verloren. Und deshalb die Idee, dass man ähnlich wie das Gehirn sogenannte polymorphe Strukturen schafft. Das heißt also Rechnerstrukturen, die wie das Gehirn, dieselben Zellen sind im Gehirn verantwortlich für Speicheraufgaben und für Rechenaufgaben, also Datenverarbeitungsaufgaben. Und da gibt es auch schon erste Ansätze. Ich habe mit einem Kollegen aus Berkeley auch darüber gearbeitet. Wir haben auch 2013 ein Buch darüber veröffentlicht. Da gibt es erste Ansätze dazu.
Man spricht in dem Zusammenhang auch von den sogenannten neuromorphen Architekturen, die man in Zukunft entwickeln will. Das wäre eine Kombination der Evolutionsstrategie mit den hocheffizienten, energiesparenden Gehirnen, die immer größer werden, allerdings mit dem Nachteil langsamer synaptischer Verbindungen. Und Gehirne sind auch empfindlich. Das ist lebendes Gewebe, aber sehr energieeffizient, wie gesagt, und auf der anderen Seite unsere Technologie, exponentielles Wachstum von Rechner- und Speicherkapazität, robuste Technologie, weitgehend heute Silizium-Halbleitertechnik, aber sehr energieaufwendig. Auch wenn die Geräte immer kleiner werden, dafür haben wir ja Milliarden von diesen Geräten, und das sagt schon der zweite Hauptsatz von Boltzmann, dass Energie auch irgendwoher kommen muss. Also, aus nichts entsteht einfach nichts, und das wird in Zukunft eine große Herausforderung sein.
Es wird nicht so sein, dass die von-Neumann-Architektur nun dadurch ersetzt wird. Wir werden vermutlich in Zukunft verschiedene Strukturen haben, verschiedene Rechnerstrukturen, die je nach Aufgabenbereich dann auch eingesetzt werden. Ich meine, dieselbe Diskussion könnten wir jetzt über Quantencomputer führen. Auch der Quantencomputer, der sicher in der Entwicklung schneller kommen wird als wir glauben. Wir haben ja jetzt in der EU auch ein entsprechendes Programm eingesetzt, das heißt, in zwei Jahren werden die ersten Vorarbeiten beginnen. Jetzt ist noch die Planungsphase. Und das wird mit Sicherheit schneller kommen als wir denken. Nur, es wird nicht so sein, dass jetzt der Quantencomputer alle Smartphones ersetzen wird, und jeder hat sozusagen einen Quantencomputer dann in der Tasche. Das wäre sicher so eine ähnliche Illusion, als damals die Kernkraft kam, als verschiedene Leute glaubten, jeder wird in seinem eigenen Haus ein kleines Kernkraftwerk haben, so sicher nicht. Aber das wird eine wichtige Rechnerstruktur werden, neben anderen. Also, ich setze da auch wie bei uns in der Energiewende auf die Vielfalt.