Vom 18. bis zum 20. September 2019 fand in Shanghai die Konferenz „Huawei Connect„“ statt, Treffen von 25.000 Teilnehmern und Schauplatz zahlreicher Vorträge, Ankündigungen, Use Cases und strategischen Überlegungen.  (Ostler)
Offene Hardware-Spezifikationen, Open Source Software, eigene Chipsets und KI in allem

Huawei Connect verdeutlicht Emanzipation von der US-Technik

Die jährliche Hausmesse „Huawei Connect“ ist die Veranstaltung des ICT-Konzerns, die sich mit den Enterprise-Infrastrukturen und -produkten beschäftigt. Zum Event in Shanghai vergangene Woche gab es jede Menge entsprechende Produktankündigungen - von den General Purpose- und KI-Chipsets „Kunpeng“ und „Ascend“ bis zu Networking- und Storage-Devices über offene Hardwarespezifikationen bis zu Open-Source-Software „Open Euler“ und „Open Gauss“. Außerdem im Portfolio: Erläuterungen zu Unternehmensstrategien.

Weiterlesen
Die Barrieren für Chatbots und Sprachassistenten fallen .... (Nvidia)
Verbesserungen im Training, in der Inferenz und beim Modell

Nvidia lässt Sprach-KI schneller lernen und verständiger antworten

Sprachdienste auf der Basis Künstlicher Intelligenz gibt es seit Jahren. Doch waren die Möglichkeiten begrenzt; Chatbots etwa scheiterten an den Möglichkeiten verschiedener Interpretationen beziehungsweise dem Erkennen des Kontextes. Es war schlicht unmöglich, extrem große KI-Modelle in Echtzeit einzusetzen. Nvidia nun einerseits Geschwindigkeitsrekorde bei KI-Trainings und -Inferenz erzielt und zugleich das bisher größte Sprachmodell entwickelt.

Weiterlesen
Eric Xu, der derzeitige Chef von Huawei (einer von drei, die sich gegenseitig ablösen) präsentiert in Shenzen den KI-Prozessor „Ascend 910“, mitsamt Roadmap.  (Huawei )
Huawei-Chef Eric Xu: „Und heute haben wir geliefert.“

Der leistungsfähigste KI-Prozessor und ein passendes KI-Computing-Framework

Am vergangenen Freitag hat Huawei mit „Ascend 910“ den bisher leistungsfähigsten KI-Prozessor vorgestellt. Es ist bestimmt für das Training von Anwendungen Künstlicher Intelligenz. Außerdem hat der Konzern „Mindspore“ präsentiert, ein Framework, das es insbesondere Wissenschaftler erleichtern soll, KI-Anwendungen zu entwickeln – für alle KI-Hardware. Die Software soll 2020 Open Source werden.

Weiterlesen
Die Graphcore-Rechner in eiem Rack montiert; ein System mit einer Höheneinheit liefert 1 PetaFlop KI-Rechenleistung.  (Graphcore)
Beschleunigung für Anwendungen der Künstlichen Intelligenz

Graphcore IPU-Systeme gegen Nvidia Ampere-Rechner

Graphcore liefert seine Rechner „IPU-M2000“ und „IPU-POD64“, die auf der zweiten Generation seiner KI-Chips „Colossus Mk2 GC200 IPU“ basieren, seit vergangener Woche aus. Passend dazu verweist das britische Unternehmen auf weitere Benchmarks, die nachweisen sollen, dass diese in Anwendungen der Künstlichen Intelligenz die Leistungen der GPUs vom Marktführer Nvidia übertreffen.

Weiterlesen
Das Hochleistungsrechnen per „HPE Greenlake“ soll in der Verknüpfung von Cloud-Flexibilität mit dem Betrieb im eigenen Rechenzentrum möglich sein. (HPE)
Hochleistungsrechnen soll für (fast) jeden erschwinglich und handhabbar werden

High Performance Computing via HPE Greenlake

High Performace Computing (HPC) ist stark en vogue, wenngleich Corona dem HPC-Servermarkt einen Dämpfer verpasst hat. Daran ist auch die stetig steigende Nachfrage nach Künstlicher Intelligenz (KI) schuld, die zum Training viel Rechenleistung braucht, sowie Big Data-Analysen, für die dasselbe gilt. Da kommen Angebote für Zugriffe aus der Cloud ganz recht. Allerdings taugen Standardangebote und manchmal auch die Kosten nur bedingt. Jetzt bietet HPE die Rechnerei als „Greenlake“-Service.

Weiterlesen
NeRZ (Netzwerk energieeffiziente Rechenzentren, Bildquelle: Hollenstein/NeRZ)
Künstliche Intelligenz (KI)

Wie kann Abwärmenutzung aus Rechenzentren mit KI gefördert werden?

Im neuen Projekt DC-HEAT (Data Centre Heat Exchange with AI-Technologies) wird untersucht, wie mittels künstlicher Intelligenz (KI) die Abwärme aus Rechenzentren künftig effizient genutzt werden kann. Am Beispiel des Rechenzentrumshotspots Frankfurt (Main) geht das Netzwerk energieeffiziente Rechenzentren (NeRZ) gemeinsam mit dem Borderstep Institut, dem Energiereferat der Stadt Frankfurt (Main), dem SICP – Software Innovation Campus Paderborn der Universität Paderborn sowie den Unternehmen WestfalenWIND IT und Cloud&Heat neue Wege.

Weiterlesen
Eine höhre Beschleunigung bei der Verarbeitung von KI-Lasten mithilfe von verdoppelter Speicherkapazität und größerer Bandbreite verspricht Nvidia mt der GPU „A100 80GB“. (Nvidia)
Die GPU für das KI-Supercomputing

Der 80-Gigabyte-Grafikprozessor von Nvidia

Am heutigen Montag stellt Nvidia eine „A100“-GPU vor, die mit doppelt so viel Speicher wie der Vorgänger die Supercomputing-Plattform „HGX“ antreibt, die ihrerseits zu einem „AI Datacenter in a Box” stilisiert wird. Der neue Grafikprozessor mit HBM2e-Technologie verdoppelt den 40-Gigabyte-GPU-Speicher von „Ampere 100“ mit hoher Bandbreite auf 80 GB und liefert eine Speicherbandbreite von über 2 Terabyte pro Sekunde.

Weiterlesen
Das Vertrauen der Unternehmen in die KI-Technologien nimmt stetig zu. Das rührt daher, dass sie die Best Practices von KI besser verstehen und sie in der Folge auch in zunehmender Breite nutzen lernen. (gemeinfrei)
KI-Innovationen

Neue Trends für die Künstliche Intelligenz

KI-Technologien entwickeln sich sehr schnell und werden den nächsten großen Wandel in der IT gestalten. Doch auch sie selbst unterliegen dem Wandel und erleben verschiedene Herausforderungen und Veränderungen. Dazu gehören die Forderungen nach einer eindeutigeren Nachvollziehbarkeit sowie reduzierten Datenintensität.

Weiterlesen