Die „Dell Automation Platform“ soll die Bereitstellung von Private-Cloud, Edge- und KI-Umgebungen vereinfachen. Schritte werden automatisiert und der gesamte Lebenszyklus der Infrastruktur wird abgebildet.
Vertiv kündigt Referenzarchitekturen für KI-Datacenter im Gigawatt-Bereich an. Möglich sollen klassische, hybride und schlüsselfertige Bereitstellungsarten mit dem „One Core“-Baukasten sein. Grundlage ist die DSX-Blaupause von Nvidia, die Planung und Betrieb von KI-Rechenzentren mithilfe detaillierter digitaler Zwillinge erleichtern soll.
Certified Randomness gilt als zentraler Erfolgsfaktor für künftige IT-Sicherheit. Jetzt kümmern sich Hersteller von Quantencomputern, Spezialisten für Cybersecurity und HPC-Betreiber gemeinsam um Post-Quanten-Kryptografie auf Basis echter Zufallszahlen.
Die KI-gestützte Dokumentenautomatisierung verändert die Arbeit in nahezu allen Branchen. Sie reduziert Fehler, senkt Kosten, sorgt für Compliance und beschleunigt Prozesse – von Banken und Versicherungen über das Gesundheitswesen bis hin zu Verwaltung und Logistik. Ihr Potenzial reicht weit über reine Effizienzsteigerung hinaus.
Wenn ein Prompt nur Wassertröpfchen und sehr wenig Watt verbraucht, dann scheint die Umweltbelastung durch KI-Nutzung trivial. Dies zeigen die von Google und Mistral erst kürzlich veröffentlichten Zahlen zum Wasser- und Stromverbrauch von KI. Doch der Schein trügt.
Mitte November 2024 versammelten sich IT-Entscheidungsträger, Staatsoberhäupter und andere leitende Köpfe in der „Unicorn-Hauptstadt“ Lissabon zum „Web Summit“, Europas größter Technologiekonferenz. Die Mega-Messe drehte sich um angewandte Künstliche Intelligenz in allen ihren Facetten.
Verlockend: einen KI-Agenten oder Chatbot mit wenigen Klicks in No-Code-Tools bauen, der Aufgaben eigenständig übernimmt oder mit Nutzern kommuniziert. Doch die technischen und organisatorischen Stolpersteine des DIY-Ansatzes sind beachtlich.
Wenn die Flüssigkeitskühlung ein Leck hat, ist das Einzige, was fließt, Panik. Nun, ein Leck in einem Rechenzentrum hat gestern einen GPU-Cluster zerstört. So ist es heute auf der Social-Media-Plattform „Linkedin“ zu lesen.
Die Skalierung von Quantencomputern erfordert die Integration verschiedener elementarer Technologien sowie die umfassende Verifizierung und Optimierung des gesamten Quantencomputersystems. Um dieser Herausforderung zu begegnen, wollen Fujitsu und G-Quat ihre Zusammenarbeit in der Forschung intensivieren.
Am 7. und 8. Oktober hat nunmehr die dritte und jüngste Veranstaltung „Quantum Effects“ auf dem Stuttgarter Messegelände stattgefunden. Im Mittelpunkt haben die Bestrebungen Baden-Württembergs gestanden, auf dem neuen Gebiet des Quantencomputing eine wichtige Rolle zu spielen.