Probleme, Lösungen, Mathe und Materialien von Quantencomputern

Quanten-Gate-Computer versus Annealer

| Autor / Redakteur: Filipe Martins und Anna Kobylinska* / Ulrike Ostler

Durchblick: Das IBM Q Lab.
Durchblick: Das IBM Q Lab. (Bild: IBM)

Der Fortschritt im Quanten-Computing rollt rasant wie eine Lawine von Elektronenspins die Energielandschaft eines Quanten-Annealers herunter. Alternative Ansätze zum Quanten-Computing reifen heran und drohen, den Platzhirsch von seiner Führungsposition zu guter Letzt zu verdrängen. Denn Quanten-Gate-Computer haben gegenüber analogen und digitalen Quanten-Annealern ein paar Trumpfkarten im Köcher.

Alle zehn bis 15 Jahre wälzt ein neuer technologischer Trend die Computing-Landschaft um, beobachtet Chris Dixon von der Venture-Capital-Firma Andreessen Horowitz. Das Analystenhaus Gartner identifiziert Quantencomputing als einen solchen IT-Trend von disruptiver Nachhaltigkeit.

Handarbeit: Die Quantum-Computing-Forscherinnen Hanhee Paik (links) und Sarah Sheldon (rechts) inspizieren den „Q“, IBMs „Quantencomputer für Wirtschaft und Wissenschaft“.
Handarbeit: Die Quantum-Computing-Forscherinnen Hanhee Paik (links) und Sarah Sheldon (rechts) inspizieren den „Q“, IBMs „Quantencomputer für Wirtschaft und Wissenschaft“. (Bild: IBM)

In den Forschungslaboren herrscht hektische Betriebsamkeit. Gegen börsennotierte Schwergewichte wie IBM, Microsoft und Google —die üblichen Verdächtigen eben —werfen auch kleinere Unternehmen in Privatbesitz wie die kanadische D-Wave und sogar Startups wie Rigetti Computing, ihre Feder in den Ring.

Das erklärte Ziel besteht letztendlich darin, einen rechnerisch universellen Quantencomputer, also eine vollständige Turing-Maschine, zu implementieren. Davon sind auch die Pioniere noch weit entfernt.

In der Zwischenzeit versuchen sich die Mitstreiter an diametral unterschiedlichen Quantencomputing-Architekturen in der Hoffnung, die vermeintliche Quantum-Advantage ihrer jeweiligen Ansätze bereits jetzt monetarisieren zu können. Der Begriff Quantum-Advantage bringt einen rechnerischen und/oder qualitativen Vorsprung eines Quanten-Systems gegenüber rein klassischen Systemen und klassischen Algorithmen auf den Punkt.

Ergänzendes zum Thema
 
Einschätzung der Autoren

Die zwei Ansätze

Im Wettbewerb um den leistungsstärksten Quanten-Computer treten hauptsächlich zwei Ansätze gegeneinander:

  • analoge Quanten-Computer wie die Quanten-Annealer von D-Wave auf der Basis des adiabatischen Theorems der Quantenmechanik [1],
  • Quanten-Gate-Computer („digitale“ Quanten-Computer) wie IBM Q oder Intels Tangle Lake, nutzten für ihre Berechnungen Quanten-Logikgatter,
  • digitalisierte adiabatische Quantum-Architekturen (analoge Qubits verbunden über digitale Interconnects, siehe [2]).

(Viele der Mitstreiter, darunter Google und Intel, haben mindestens zwei Eisen im Feuer.) Dann gibt es Simulatoren dieser Quanten-Systeme in klassischer Halbleitertechnik, darunter Fujitsu mit dem „digitalen Annealer“ und Atos mit der „Quantum Learning Machine“.

Die Medizinforschung bei Bayer und RWTH Aachen setzt auf Quantencomputing

Die Quantum Learning Machine hilft bei der Analyse von Krankheitsbildern

Die Medizinforschung bei Bayer und RWTH Aachen setzt auf Quantencomputing

09.11.18 - Computing- und Life-Science-Experten der Organisationen Bayer und RWTH Aachen nutzen den Quantensimulator „Quantum Learning Machine“ (QLM) von Atos, um mit Hilfe großer Datenbestände die Entwicklung von Mehrfacherkrankungen zu erforschen. Sie evaluieren den Einsatz der Quantentechnologie bei der Erforschung und Analyse von Krankheitsbildern. lesen

Wie die Qubits eines Quantencomputers zu Stande kommen, steht noch auf einem anderen Blatt.

Jedes quantenphysikalische System, welches zwei oder mehr Zustände hat, kann als ein Qubit dienen, zum Beispiel:

  • Photonen durch den Effekt linearer beziehungsweise zirkularer Polarisation (NTT und andere);
  • Elektronen, Neutronen und Atomkerne durch den so genannten Spin (Intel in Silikon-Qubits und andere).

Das Herzstück der gesamten Quanteninformationstechnik ist die Umsetzung von Qubits mit langen Kohärenzzeiten zur Minimierung der Notwendigkeit aktiver Fehlerkorrekturen.

Wie wird es gemacht?

Die überwiegende Mehrheit der Mitstreiter nutzt derzeit supraleitende Qubits. Dazu zählen

  • D-Wave, IBM und Intel mit „Tangle Lake“.
  • IonQ experimentiert mit eingefangenen Ionen (englisch: trapped ions).
  • Microsoft setzt auf interferenz-resistenter(e) topologisch geschützte Qubits. (Microsofts Qubits bieten Redundanz von Quantenzuständen, indem sie die betreffenden Elektronen aufsplitten.)
  • Topologisches Quantencomputing steht im Zentrum des EU-finanzierten Projektes „EQuaM“, an dem sich unter anderem die Universitäten Hamburg, Ulm, Wien und die Johannes Gutenberg Universität Mainz aktiv beteiligen.

Aus diesen grundlegenden Recheneinheiten entstehen dann die verschiedenen Chip- und System-Architekturen.

Kurz und knapp: Die Vorteile und Schwierigkeiten

Die bisweilen größte Herausforderung bei der Umsetzung eines Quantencomputers besteht im Unterdrücken der Dekohärenz, also im Verhindern folgenschwerer Wechselwirkungen zwischen einem Qubit und seiner Umgebung. Doch die Vorteile sind enorm, denn die Rechenleistung eines Quantensystems skaliert exponentiell.

Jedes einzelne Bit in einem klassischen System nimmt zu jedem Zeitpunkt einen von nur zwei möglichen Zuständen ein; somit lässt sich in einem klassischen System mit jedem Bit genau auch nur ein Bit an Information codieren. Das ist bei einem Quantencomputer aber nicht der Fall. Betrachtet man eine N-Sammlung von Qubit-basierten 2-Zustands-Systemen als ein einzelnes System, steigt die Zahl der Produktzustände, die ein solcher Quantencomputer gleichzeitig berechnen kann, exponentiell mit der steigenden Anzahl von Qubit-(Sub)systemen.

Quantensysteme leiden bekannterweise unter einer enormen Fehleranfälligkeit. Die Herstellung zuverlässiger Verbindungen zwischen Qubits in einem Quantenchip und die Umsetzung von Fehlerkorrekturmechanismen stehen daher der Umsetzung eines universellen Quantencomputers derzeit noch im Wege.

Was bieten Annealer?

Im Gegensatz dazu lassen sich mit Hilfe von Quanten-Annealer und digitaler Simulatoren eines Quantensystems bereits heute praktische Problemstellungen im kommerziellen Umfeld bewältigen (siehe dazu auch den Bericht „Quanten-Computing: erste Anwendungen und Tools“).

Der analoge Quanten-Simulator eines Quantensystems: Quanten-Annealer

Der Quantum-Vorreiter und selbsternannter Marktführer D-Wave, Inc. aus Kanada sorgt seit mehreren Jahren mit seinen Quanten-Annealern für Schlagzeilen, konnte aber erst gerade im Sommer dieses Jahres die Quanten-Natur seiner Architektur tatsächlich nachweisen.

Die theoretischen Physiker Vadim Berezinskii, J. Michael Kosterlitz und David Thouless haben in den frühen 1970er Jahren einen neuen Aggregatzustand vorhergesagt, der durch nichttriviale topologische Eigenschaften charakterisiert ist. Die Arbeit wurde 2016 mit dem Nobelpreis für Physik ausgezeichnet.

Das D-Wave-System

Die D-Wave-Forscher demonstrierten dieses Phänomen, indem sie das „D-Wave 2000Q“-System programmierten, um ein zweidimensionales, „frustriertes Gitter“ aus künstlichen Spins zu erzeugen. Die beobachteten topologischen Eigenschaften im simulierten System können nicht ohne Quanteneffekte existieren und stimmen eng mit den theoretischen Vorhersagen überein.

Dr. J. Michael Kosterlitz, der Physik-Nobelpreisträger, hat den Erfolg von D-Wave als eine „bemerkenswerte Leistung“ herausgestellt. (Die Forschungsstudie wurde unter dem Titel „Observation of topological phenomena in a programmable lattice of 1,800 qubits“ in dem renommierten Physik-Magazin „Nature“, Vol. 560, Ausgabe 7719, am 22. August 2018 publiziert, siehe [4]). Diese Arbeit stelle einen wichtigen Fortschritt in der Simulation physischer Systeme dar und zeige, dass der voll programmierbare D-Wave-Quantencomputer als ein genauer Simulator von Quantensystemen in großem Maßstab verwendet werden könne. Die in dieser Arbeit verwendeten Methoden können weitreichende Auswirkungen auf die Entwicklung neuartiger Materialien haben und Richard Feynmans ursprüngliche Vision eines Quantensimulators realisieren.

Zeitkritisch: D-Wave ist ein Quantum-Annealer auf der Basis des adiabatischen Theorems der Quantenmechanik.
Zeitkritisch: D-Wave ist ein Quantum-Annealer auf der Basis des adiabatischen Theorems der Quantenmechanik. (Bild: D-Wave)

Diese neue Forschung folgt unmittelbar auf D-Waves kürzlich erschienene Studie im Science-Magazin, das eine andere Art eines Phasenübergangs in einer Quanten-Spin-Glass-Simulation demonstrierte. Die beiden wissenschaftlichen Beiträge ([4] und [5]) zeigen zusammen die Flexibilität und Vielseitigkeit des D-Wave-Quantencomputers in der Quantensimulation von Materialien.

D-Waves Quantum-Chip, die QPU (kurz für Quantum Processing Unit), ist ein Quantum-Annealer für adiabatische Quanten-Algorithmen. (Der Adiabaten-Ansatz der Quantenmechanik besagt, dass der Zustand eines quantenmechanischen Systems in guter Annäherung die gesuchte Problemlösung findet, wenn der sogenannte Energieoperator gemäß einer Formel „langsam genug“ geändert wird.)

Die Stärken des Quanten-Annealer

Ein Quantum-Annealer spielt seine Stärken bei Problemen aus, für die es potenziell viele brauchbare Lösungen gibt und bereits irgendeine beliebige davon — also ein lokales statt des absoluten Minimums der Funktion — ein zufriedenstellendes Resultat darstellt. Diese Art eines Quantencomputers löst bereits heute kombinatorische Optimierungsprobleme im Bereich der Verkehrsflussoptimierung, unter anderem im Volkswagen-Konzern, sowie Materialforschung für die Luft- und Raumfahrt, zum Beipisel bei Airbus, der NASA und bei Lookheed Martin.

Quanten-Annealer sind vergleichsweise einfach zu bauen, aber gelten unter den Quanten-Computern zu den „Leichtgewichten“. Sie entsprechen nicht einer universellen Turing-Maschine.

Ein Quantum-Annealer wird niemals in der Lage sein, den berühmten Shor-Algorithmus auszuführen. Dieser Quanten-basierte Algorithmus erlaubt es, die Ganzzahlen-Faktorisierung nahezu exponentiell zu beschleunigen und dürfte gängige Formen der modernen Kryptographie hinfällig machen. Doch so weit sei die Technik noch nicht, erläutert Matthew Brisse, Research VP für den Bereich Datacenter, Storage und Quantum Computing bei Gartner.

Der „digitale Annealer“ von Fujitsu

Mit der „DAU“ (Digital Annealing Unit) hat Fujitsu einen digitalen Simulator eines Quantum-Annealers in herkömmlicher Halbleitertechnologie umgesetzt. Die DAU soll in Anlehnung an einen Quanten-Annealer kombinatorische Optimierungsprobleme in nicht-von-Neumannscher Architektur ähnlich effizient lösen können.

Logisch: Die „Digital Annealing Unit“ von Fujitsu simuliert einen Quantencomputer in herkömmlicher CMOS-Technologie.
Logisch: Die „Digital Annealing Unit“ von Fujitsu simuliert einen Quantencomputer in herkömmlicher CMOS-Technologie. (Bild: Fujitsu)

Bei der DAU handelt es sich um eine Recheneinheit auf der Basis konventioneller CMOS-Technik in Silizium. Die DAU besteht aus 1.024 „Bit-Aktualisierungsblöcken,“ die dank interner Logik und des integrierten Speichers das Verhalten von Qubits eines Quantum-Annealers nachahmen sollen. Im Laufe des kommenden Jahres möchte Fujitsu mit einer 8,192-Bit-Block-DAU nachkarten und später eine 1-Millionen-Bit-Block-DAU nachliefern.

Die DAU trumpft gegenüber einer D-Wave-Maschine mit einer höheren Präzision (16 Bit für die DAU versus 4 Bit für D-Wave), kommentiert Hidetoshi Nishimori, Physikprofessor beim Tokyo Institute of Technology.

Eine klassische Recheneinheit wie die DAU könne jedoch die super-massive Parallelisierbarkeit eines Quanten-Annealers niemals replizieren. D-Wave würde daher das Rennen gegen Fujitsus digitalen Annealer langfristig mit Sicherheit gewinnen. Das Simulieren von Quantenzuständen unter Verwendung von klassischer Halbleitertechnik ist an sich eigentlich nichts grundlegend Neues. Die Technik werde seit über 70 Jahren entwickelt, bemerkt Bo Ewald, Vorstandsvorsitzender von D-Wave U.S.

Quanten-Simulator versus Quanten-Annealer

Zu den Vorzügen Fujitsus digitalen Quantensimulators gegenüber einem „echten“ Quanten-Annealer zählen neben dem Kostenvorteil niedrigere Anforderungen an die Arbeitsumgebung und die einfache(re) Benutzbarkeit. Während ein D-Wave-System eine sorgfältig kontrollierte kryogene Umgebung benötigt, gibt sich ein digital simulierter Annealer wie Fujitsus DAU mit der Raumtemperatur eines Rechenzentrums vollkommen zufrieden.

Die DAU soll zudem das Formulieren einer Problemstellung deutlich erleichtern. Statt den Digitalen Annealer wie einen „echten“ Annealer einzustellen oder zu programmieren, wird die jeweilige Aufgabenstellung in Form von Gewichtungsmatrizen und Störungsvektoren formuliert und so in eine simulierte N-dimensionale Energielandschaft umgewandelt.

Die DAU entstand in Zusammenarbeit mit der Universität in Toronto und 1Qbit, einem strategischen Partner von D-Wave. Die DAU ist vorerst nur als ein Cloud-Dienst erhältlich, doch Fujitsu beabsichtigt, Systeme mit dieser Recheneinheit künftig an Datencenter und für On-Premise-Installationen auszuliefern.

2018 ist das entscheidende Jahr für Quantencomputer

Die disruptive Kraft von Quantencomputing

2018 ist das entscheidende Jahr für Quantencomputer

27.07.18 - Quantencomputing bewegt sich von der Physik-Theorie zur Geschäftsrealität. Andrew Fursman, CEO von 1QBit, skizziert im Interview, wie der versprochene Anstieg der Rechenleistung dazu beitragen könnte, einige der schwierigsten Probleme der Welt zu lösen. lesen

Ein On-Premise-System dieser Art hat die Atos SE mit der Quantum Learning Machine (QLM), einem Quantensimulator für KI, bereits seit ca. anderthalb Jahren im Köcher. Im Juli dieses Jahres konnte Atos die Leistungsfähigkeit des Systems von 40 Qubits (ohne Quantenrauschen) auf 41 Qubits (mit Quantenrauschen) gegenüber der Vorgängerversion verdoppeln. Der Quantensimulator steht unter anderem Wissenschaftlern der FH Upper Austria in Hagenberg zur Verfügung.

Der Quanten-Gate-Computer

Quanten-Gate-Systeme stellen einen Versuch dar, einen universellen Quantencomputer mit Turing-Vollständigkeit zu entwickeln. IBM möchte mit dem Allzweck-Quantencomputer „Q“ das Tempo vorgeben. Die Steuerung des Quantencomputers erfolgt via IBMs quelloffenes Framework Qiskit Terra v0.6.

Die erfolgreiche Umsetzung eines universellen Gate-Quantencomputersystems steht und fällt mit der Zuverlässigkeit der Qubits. Aus diesen grundlegenden Quanten-Recheneinheiten entstehen in Echtzeit so genannte Quantenlogikgatter, also Vorrichtungen, welche auf der Basis Boolescher Logik und unter Einbezug von quantenmechanischen Phänomena wie der Superposition, der Verschränkung oder (künftig) der Quantenteleportation die Signale der Qubits verarbeiten.

Unter Verwendung von Quantengattern lassen sich komplexe Algorithmen aufbauen; diese enden normalerweise in einer Messoperation, welche einen klassischen Wert der betreffenden Qubits erfasst: Ein Qubit kann hierbei entweder den Wert 0 oder den Wert 1 einnehmen, nicht jedoch eine Superposition. (Bei einer Messung wird das zu messende System mit dem Messgerät verschränkt und kollabiert dabei auf einen klassischen Zustand.)

Indirekt transformierbar: Forscher der Yale University haben kürzlich die Durchführbarkeit modularer Quantenlogikgatter auf der Basis von Quantenteleportation nachgewiesen.
Indirekt transformierbar: Forscher der Yale University haben kürzlich die Durchführbarkeit modularer Quantenlogikgatter auf der Basis von Quantenteleportation nachgewiesen. (Bild: Yale University)

Quantenlogikgatter bilden wiederum Quantenschaltungen, die grundlegende Rechenoperationen verarbeiten können. Darauf aufbauend sollen universelle Quantencomputer komplexe Algorithmen ausführen können: Shor’s (um die RSA-Kryptographie zu brechen), Grover‘s (schnellere Suche) und andere lassen sich auf einem universellen Quantencomputer (oder gegebenenfalls einem nicht-universellen Quantengatter-System) ausführen, nicht jedoch auf einem Quanten-Annealer. Doch die inhärente Ungenauigkeit der Quantenlogikgatter macht bei diesen Systemen komplexe Fehlerkorrekturmechanismen erforderlich.

Die Fehler werden mitgeliefert

Das Haupthindernis in der Entwicklung der Quanten-Gate-Computer besteht eben darin, „fehlerkorrigierende Software zu entwickeln, die eine Beschädigung der Daten verhindern könnte während die Berechnung zum Auslesen der endgültigen Resultate [noch] fortschreitet,“ glaubt Ivan H. Deutsch, ein Pionier des Quantencomputings. „Der große Trick“ wäre ein Algorithmus, der nur die Fehler und nicht die Daten messe und so diejenige Superposition bewahre, welche die richtige Antwort enthalte, argumentiert er weiter.

Qubits sind daher nicht gleich Qubits. D-Wave liefert in der aktuellen Generation des Quanten-Annealers 2.000 QuBits. Mit dem „Tangle Lake“, einem Quanten-Gate-Computer auf der Basis supraleitender Qubits, hat es Intel auf 49 dieser Recheneinheiten gebracht und hat damit vorerst mehr oder weniger das Ende der Fahnenstange erreicht, bestätigt Jim Clarke, Direktor der Quanten-Hardware-Sparte des traditionsreichen Chip-Riesen. Auch langfristig ließe sich mit diesem Ansatz die magische Grenze von 1.000 Qubits wohl kaum überwinden, so Clarke.

Intel setzt auf Silizium

Intel hat daher bereits auch eine Alternative zu supraleitenden Qubits des Tangle Lake ins Visier genommen: In Zusammenarbeit mit der technischen Universität Delft in den Niederlanden experimentiert das Unternehmen mit dem Silizium-Spin-Qubit (englisch: silicon spin qubit).

Bei diesem Ansatz setzt der Chip-Riese auf seine Stärken: die eigene Expertise in klassischer Halbleitertechnik. „Im Wesentlichen bauen wir eine Reihe von Ein-Elektronen-Transistoren und koppeln diese mithilfe unserer fortschrittlichen Transistor-Prozesstechnologie miteinander,“ kommentiert Clarke. Der Silizium-Spin-Qubit soll mit einem Millionstel der Platzanforderungen eines supraleitenden Qubits trumpfen, bessere thermische Eigenschaften aufweisen und das nötige Skalierungspotenzial mitbringen.

Die supraleitenden Qubits seien allerdings in ihrer Entwicklung den Silizium-Spin-Qubits um mehrere Jahre voraus insofern, dass sich die Ersteren bereits in ein Quantensystem integrieren ließen. Intel möchte sich diesen Vorsprung zunutze machen und Tangle Lake zum bloßen Prototypisieren von Quantensystemarchitekturen nutzen, langfristig aber die supraleitenden Qubits durch Silizium-Spin-Qubits austauschen. In der Zwischenzeit soll Intels Quantensimulator eine Feedback-Schleife zwischen Software-Entwicklern und Hardware-Ingenieuren herstellen.

Entwickeln für noch unbekannte Computer

Hierzu nutzt Intel eine verteilte Hochleistungsimplementierung eines Quantencomputer-Simulators auf der Basis allgemeiner Ein-Qubit-Gatter und Zwei-Qubit-gesteuerter Gatter für Quanten-Algorithmen auf bis zu 42 Qubits als eine virtualisierte Testumgebung für die Entwicklung von Quanten-Computing-Software.

Ein 30-Qubit-System ließe sich „auf einem Laptop“ simulieren, verrät Clarke. Um einen 40-Qubit-Quantencomputer simulieren zu können, bedürfe es eines Supercomputers wie des leistungsstarken „Stampede“ der Universität von Texas zu Austin, auf den sich Intels Simulator stützt. Um relevante Software zu entwickeln, seien gar mehrere Hundert oder gar Tausend simulierte Qubits vonnöten, bedauert Clarke.

Ein kleines kalifornisches Start-up lässt sich davon nicht abhalten.

Hybridisierte Quanten-Co-Location

Rigetti Computing, ein „Spaceshot“ des Inkubators Y Combinator, möchte ab sofort programmierbare Quanten-Chips in hybriden Systemen aus eigenen Datacenter heraus als einen Dienst bereitstellen. Das kleine Unternehmen aus dem kalifornischen Berkeley hat gerade im September 2018 einen hybriden Co-Location-Dienst für Quantencomputing namens „Rigetti Quantum Cloud Services“ (kurz: QCS) vorgestellt.

Quantifiziert: Schematische Darstellung der Funktionsweise von „Rigetti Quantum Cloud Services“.
Quantifiziert: Schematische Darstellung der Funktionsweise von „Rigetti Quantum Cloud Services“. (Bild: Rigetti Computing)

Der Dienst integriert 128-qubit starke Quantenprozessoren auf der Basis von Rigettis eigener Aspen-Architektur mit klassischen Servern. Ein vollständiger Softwarestack und leistungsstarke Fehlerkorrekturmechanismen sollen Nutzern den Quantenvorteil (englisch: „quantum advantage“) sichern.

Auf diese hybriden Quantum-Systeme sollen Unternehmen über dedizierte Quantum Machine Images zugreifen können. Bei einem solchen Image handelt es sich um eine virtualisierte Programmier- und Ausführungsumgebung auf der Basis von „Forest 2.0“, dem hauseigenen Quantum-SDK von Rigetti. Für den ersten handfesten Nachweis des Quantenvorteils hat das Unternehmen einen Preis in Höhe von 1 Million Dollar ausgeschrieben. (Die detaillierten Bedingungen stehen seit dem 30. Oktober fest.)

Ausblick: Laut Gartners neuestem Hype-Cycle-Modell dürfte Quanten-Computing das „Plateau der Produktivität“ in fünf bis zehn Jahren erreichen.
Ausblick: Laut Gartners neuestem Hype-Cycle-Modell dürfte Quanten-Computing das „Plateau der Produktivität“ in fünf bis zehn Jahren erreichen. (Bild: Gartner)

Laut Gartners neuestem Hype-Cycle-Modell dürfte Quanten-Computing das „Plateau der Produktivität“ erst in 5 bis 10 Jahren erreicht haben. Bis dahin würde die Technologie noch den „Höhepunkt der überhöhten Erwartungen“ erleben und den „Tal der Enttäuschung“ bewältigen müssen. Dennoch befinde sich die Datencenterbranche bereits „an einem Wendepunkt“, stellt Matthew Brisse, Research VP für den Bereich Datacenter, Storage und Quantum Computing, fest.

*Das Autoren-Duo

Die Autoren des Artikels, Anna Kobylinska und Filipe Pereira Martins arbeiten für

McKinley Denali Inc. (USA).

Was meinen Sie zu diesem Thema?
interessanter Artikel, ....  lesen
posted am 28.02.2019 um 09:42 von Andreas S.


Mitdiskutieren
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 45641208 / Server)