Databricks Lakehouse baut auf Apache Spark als Data-Engineering- und Analyse-Plattform auf. Auf der Anwenderkonferenz DAIS 2023 (BigData-Insider berichtete) im Juni 2023 wurde die Version 3.4 mit zahlreichen Neuerungen vorgestellt. Im September wurde die Version 3.5 freigegeben. Die Zusammenarbeit zwischen Spark und Python wird zunehmend enger.
Die neue Architektur des Data Lakehouses löst die alte Architektur des Data Warehouses ab.
(Bild: Databricks)
Apache Spark ist eine Analytik-Engine für die Verarbeitung sehr großer Datenmengen. Im Jahr 2014 entwickelt, stellt sie mittlerweile APIs in Java, Scala, Python und R bereit sowie eine optimierte Engine, die die Ausführung von Graphen unterstützt. Zum Spark-Kern wurden im Lauf der Zeit verschiedene leistungsfähige Werkzeuge hinzugefügt: Spark SQL für die Ausführung von SQL und strukturierter Datenverarbeitung, ebenso die Pandas API 2.1.2, um Pandas-Workloads zu verarbeiten, denn die Python Data Analysis Library ist ein leistungsfähiges Werkzeug für quelloffene Datenanalyse auf Python-Basis.
Spark umfasst eine eigene MLlib für Machine Learning und mit GraphX eine Engine für die Graph-Verarbeitung und schließlich mit Structured Streaming, um inkrementelle Berechnungen und die Verarbeitung von Datenströmen ausführen zu können.
Bildergalerie
„Spark hat 3.600 Kontributoren und erhielt 40.000 Code-Commits“, berichtete Reynold Xin, Chief Architect Databricks, auf der DAIS-Konferenz, denn es habe das reife Alter von zehn Jahren erreicht: „Die Zahl der jährlichen Downloads hat die Milliarde überschritten.“ Heute könnten Entwickler für Spark mit den Sprachen Scala, Python, Java, R und SQL programmieren und mehr als hundert Datenquellen einbinden. Spark werde auch für KI eine Rolle spielen, nämlich durch die Unterstützung für Langchain, Pytorch und andere KI-Frameworks.
Neu in Version Spark v3.4.1
„Python wird die Vorherrschaft der Programmiersprachen C/C# und Java beenden, daher wird es besonders unterstützt“, sagte Reynold Xin. „Ebenso baut Spark die Unterstützung für generative KI aus.“ Spark 3.4.1 verfügt nun über ein PySpark-Test-Framework, mit dem sich Python-Funktionen bereits in Spark testen lassen. User-definierte Tabellen-Funktionen (UDTF) ermöglichen Erweiterungen und den Zugriff auf Datenquellen in Python sowie Pandas. Mit dem „Project Zen“ biete Spark nun die Funktion „AutoComplete“ von Python-Code.
Wie Reynold Xin sagte, werde „die Sprache für Entwickler künftig Englisch sein“, denn GenAI und NLP machen es möglich. Daher soll es künftig ein English SDK für Spark mit dem Namen pyspark.ai geben. Es verwendet Englisch, verarbeitet es mit dem Compiler in GenAI und erzeugt Byte-Code namens PySpark.
Ein neues Feature, das von großen Sprachmodellen (LLMs) unterstützt werde, ist ein Spark Assistant, der auf der Funktion „Spark Expert“ basiert. Die neue Funktion „Spark Connect“ war im Juni 2023 bereits verfügbar. Spark Connect verfügt über einen Thin Client, um sich mit Spark aus jeder Anwendung, Entwicklungsumgebung und Programmiersprache heraus zu verbinden.
Die Unterstützung für Delta Lake 3.0 wurde nach Angaben von Michael Armbrust, Distinguished Engineer bei Databricks, in Spark 3.4x ausgebaut. Um die Spark-Komponente für Structured Streaming in dem Leistungsmerkmal „Delta Sharing“ besser schützen zu können, wird Delta Sharing nun von Oracle und von Twilio unterstützt. Wichtig für alle Cloud-Nutzer: „Es gibt keine Egress-Gebühren mit Delta Sharing“, so Armbrust. Egress-Gebühren entstehen immer dann, wenn ein Nutzer Daten aus der Cloud, beispielsweise S3, entnehmen will.
AWS bietet für Datenentnahme weitere Methoden an, so etwa einen Content Network Delivery (CDN) Service. Eine weitere Schutzfunktion bietet Spark nun mit dem Support für QAuth 2.0 für Spark an. Die Unterstützung für die Programmiersprache Rust mit Delta.rs macht den Code „memory-safe“ und eliminiert so eine häufig ausgebeutete Schwachstelle, nämlich den Hauptspeicher. Der Rust-Support wurde laut Armbrust stark nachgefragt.
Ein Entwicklungsschwerpunkt sei die Performance gewesen, so Armbrust. Die Latenzzeit für Abfragen sei nun mehr als 50-mal niedriger als bisher. Mit Version 3.4x führt Spark „Liquid Clustering“ für Delta-Tabellen ein, um die Partitionierungsstrategie des Kunden hinsichtlich der Dateigrößen zu optimieren. „Indem die Dateien unterteilt werden, lassen sie sich bis zu 2,5-mal schneller übertragen, was aber auch die Lesegeschwindigkeit erhöht“, so Armbruster.
Über das neue Dateiformat „Delta Uniform“, das zu Hudi und Apache Iceberg kompatibel sein soll, hat Bigdata-insider.de bereits im Sommer 2023 berichtet. Im Ökosystem der Spark-Konnektoren ist Apache Flink neu hinzugekommen. Flink sorgt für strukturiertes, stateful-Streaming und entsprechende Berechnungen.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Neu in Spark Release 3.5.0
Apache Spark 3.5.0 ist im September als sechstes Release von Version 3.x freigegeben worden. Enthalten seien laut Apache-Foundation zahlreiche bedeutende Beiträge der Open Source Community, das neue Release beantworte mehr als 1300 Jira-Helpdesk-Tickets.
Das oben erwähnte „Spark Connect“ erhält nun jeweils einen Thin Client für die Programmiersprachen Scala und Go sowie Pandas-API-Support. Neu ist die Unterstützung für verteiltes Training und die Inferenz von Machine-Learning-Modellen in PyTorch. Damit werde die jeweilige Infrastruktur entlastet und der vorhandene Spark-Cluster besser ausgenutzt. Das verteilte Training werde mit der neuen Pytorch-Verteiler-Funktion „DeepSpeed“ vereinfacht. Die Kompatibilität für Structured Streaming wurde ebenso wie die Unterstützung von Python erheblich erweitert.
Wasserzeichen erhielten erhöhte Aufmerksamkeit, denn sie verbessern die Sicherheit der Datenverarbeitung in Stateful-Streaming-Berechnungen, indem sie uferlose Stream-Downloads durch Schwellenwerte verhindern. Die Version 3.5 führt die Weiterleitung von Wasserzeichen zwischen Operatoren ein. Im Structured Streaming von Spark wird die Funktion „dropDuplicatesWithinWatermark“ eingeführt, was die Anzahl doppelter und mehrfacher Wasserzeichen im Hinblick auf Datensparsamkeit verringern dürfte.