Freigeben über


Databricks Runtime 17.2

Die folgenden Versionshinweise enthalten Informationen zu Databricks Runtime 17.2, unterstützt von Apache Spark 4.0.0.

Diese Version enthält alle Features, Verbesserungen und Fehlerbehebungen aller vorherigen Databricks-Runtime-Versionen. Databricks hat diese Version im September 2025 veröffentlicht.

Neue Features und Verbesserungen

LIKE unterstützt UTF8_LCASE Sortierung

Der LIKE-Operator unterstützt jetzt die UTF8_LCASE-Vergleichsreihenfolge, sodass der Abgleich ohne Beachtung der Groß- und Kleinschreibung erfolgt.

st_exteriorring Funktion wird jetzt unterstützt

Sie können nun die st_exteriorring Funktion verwenden, um die äußere Grenze eines Polygons zu extrahieren und als Linienzeichenfolge zurückzugeben. Siehe st_exteriorring Funktion.

Anzeigen von Pushdowndetails in EXPLAIN und Spark UI für Remotescans

Der EXPLAIN Befehl und die Spark-Benutzeroberfläche für RemoteSparkConnectScan auf dedizierten Compute-Knoten zeigen jetzt Prädikate, Aggregationen, GROUP BY-Klauseln, Grenzen und Beispiele an, die in den entfernten Scan verschoben werden.

Deklarieren mehrerer Sitzungs- oder lokaler Variablen in einer einzelnen DECLARE Anweisung

In Databricks Runtime 17.2 und höher können Sie mehrere Sitzungs- oder lokale Variablen desselben Typs und Standardwerts in einer einzelnen DECLARE Anweisung deklarieren. Siehe DECLARE VARIABLE und BEGIN END Compound-Anweisung.

Unterstützungsstichwort TEMPORARY für die Erstellung von Metrikansichten

Sie können nun das TEMPORARY Schlüsselwort verwenden, wenn Sie eine Metrikansicht erstellen. Temporäre Metrikansichten sind nur in der Sitzung sichtbar, die sie erstellt hat, und werden gelöscht, wenn die Sitzung endet. Siehe CREATE VIEW.

Unterstützung zusätzlicher Befehle mit fein abgestimmter Zugriffssteuerung

Feinkörnige Zugriffssteuerung auf dedizierten Compute unterstützt jetzt die FSCK REPAIR TABLE und DESCRIBE DETAIL Befehle.

Selektiv und atomar Daten durch INSERT REPLACE USING und INSERT REPLACE ON ersetzen (GA)

INSERT REPLACE USING und INSERT REPLACE ON sind jetzt allgemein für Databricks Runtime 17.2 verfügbar. Beide SQL-Befehle ersetzen einen Teil der Tabelle durch das Ergebnis einer Abfrage.

INSERT REPLACE USING ersetzt Zeilen, wenn die USING Spalten im Sinne der Gleichheit verglichen gleich sind. INSERT REPLACE ON ersetzt Zeilen, wenn sie einer benutzerdefinierten Bedingung entsprechen.

Siehe INSERT in der Referenz zur SQL-Sprache und Daten selektiv mit Delta Lake überschreiben.

Native E/A für LokiFileSystem.getFileStatus auf S3 verwenden

LokiFileSystem.getFileStatus verwendet nun den nativen E/A-Stapel für Amazon S3-Datenverkehr und gibt org.apache.hadoop.fs.FileStatus Objekte anstelle von shaded.databricks.org.apache.hadoop.fs.s3a.S3AFileStatus.

STANDARDMÄßIG aktivierter ANSI-Modus für Pandas-API auf Spark

ANSI_MODE ist jetzt standardmäßig für die Pandas-API auf Spark compute.ansi_mode_support=True aktiviert, was sicherstellt, dass die ANSI-Compliance-Parität mit nativen Pandas gewährleistet ist. Die compute.fail_on_ansi_mode Option gilt weiterhin, wenn compute.ansi_mode_support auf False gesetzt ist.

Automatisches Laden leitet Partitionsspalten im singleVariantColumn Modus ab

Auto Loader leitet jetzt Partitionsspalten von Dateipfaden ab, wenn Daten als semistrukturierter Variantentyp mithilfe der singleVariantColumn-Option aufgenommen werden. Zuvor wurden Partitionsspalten nicht automatisch erkannt. Weitere Informationen finden Sie unter "Optionen für das automatische Laden".

Verhaltensänderungen

DESCRIBE CONNECTION Zeigt Umgebungseinstellungen für JDBC-Verbindungen an.

Azure Databricks enthält jetzt benutzerdefinierte Umgebungseinstellungen im DESCRIBE CONNECTION Output für JDBC-Verbindungen, die benutzerdefinierte Treiber unterstützen und isoliert ausgeführt werden. Andere Verbindungstypen bleiben unverändert.

Option zum Kürzen der einheitlichen Historie während der Migration von verwalteten Tabellen

Sie können jetzt den einheitlichen Verlauf abschneiden, wenn Sie Tabellen mit aktivierter Uniform/Iceberg-Funktion migrieren ALTER TABLE...SET MANAGED. Dies vereinfacht Migrationen und reduziert Ausfallzeiten im Vergleich zum manuellen Deaktivieren und erneuten Aktivieren von Uniform.

SQL-Syntax für Delta-Leseoptionen in Streamingabfragen

Sie können jetzt Delta-Leseoptionen für SQL-basierte Streamingabfragen mithilfe der WITH Klausel angeben. Beispiel:

SELECT * FROM STREAM tbl WITH (SKIPCHANGECOMMITS=true, STARTINGVERSION=X);

Richtige Ergebnisse mit split leerem regex und positivem Grenzwert

Azure Databricks gibt jetzt korrekte Ergebnisse zurück, wenn es mit einem leeren Regex und einem positiven Grenzwert split function verwendet wird. Zuvor hat die Funktion die verbleibende Zeichenfolge falsch abgeschnitten, anstatt sie in das letzte Element einzubinden.

Die Behebung der url_decode und try_url_decode Fehlerbehandlung in Photon

In Photon geben try_url_decode() und url_decode() mit failOnError = false jetzt NULL für ungültige URL-codierten Zeichenfolgen anstatt die Abfrage zu fehlschlagen.

Freigegebene Ausführungsumgebung für Unity Catalog Python UDTFs

Azure Databricks teilt nun die Ausführungsumgebung für benutzerdefinierte Python-Tabellenfunktionen (UDTFs) aus derselben Besitzer- und Spark-Sitzung. Eine optionale STRICT ISOLATION Klausel ist verfügbar, um die gemeinsame Nutzung für UDTFs mit Nebeneffekten zu deaktivieren, z. B. das Ändern von Umgebungsvariablen oder das Ausführen von beliebigem Code.

Zeilenverfolgung für neue Tabellen standardmäßig aktiviert

Azure Databricks ermöglicht jetzt die Zeilennachverfolgung standardmäßig für alle neu erstellten verwalteten Unity-Katalogtabellen. Vorhandene Tabellen sind nicht betroffen und behalten ihre aktuellen Zeilenverfolgungseinstellungen bei.

TABLE Argumentunterstützung für Unity Catalog Python UDTFs

Unity Catalog Python UDTFs unterstützen TABLE Argumente, sodass Funktionen ganze Tabellen als Eingabeparameter akzeptieren können, was komplexere Datentransformationen und Aggregationen für strukturierte Datasets ermöglicht. Siehe Python benutzerdefinierte Tabellenfunktionen (UDTFs) im Unity-Katalog. (Zurückportiert von 17.3 LTS).

Verbesserungen der Bibliothek

Aktualisierte Python-Bibliotheken:

In dieser Version wurden keine Python-Bibliotheken aktualisiert.

Aktualisierte R-Bibliotheken:

In dieser Version wurden keine R-Bibliotheken aktualisiert.

Aktualisierte Java-Bibliotheken:

  • Aktualisierung von io.delta.delta-sharing-client_2.13 von 1.3.3 auf 1.3.5

Apache Spark

Databricks Runtime 17.2 umfasst Apache Spark 4.0.0. Diese Version enthält alle Spark Fixes und Verbesserungen, die in der vorherigen Version enthalten sind, sowie die folgenden:

  • SPARK-53183 Verwenden von Java Files.readString anstelle von o.a.s.sql.catalyst.util.fileToString
  • SPARK-51817 Führen Sie ansiConfig-Felder in den messageParameters von CAST_INVALID_INPUT und CAST_OVERFLOW wieder ein
  • SPARK-53124 Nicht benötigte Felder aus JsonTuple löschen
  • SPARK-53106 Hinzufügen von Schemaentwicklungstests für TWS Scala Spark Connect-Suites
  • SPARK-53201 Anstelle SparkFileUtils.contentEquals von Files.equal
  • SPARK-53308 Entfernen Sie in RemoveRedundantAliases keine Aliase, die Duplikate verursachen würden.
  • SPARK-53241 Unterstützung createArray in SparkCollectionUtils
  • SPARK-53239 Verbessern die MapSort und SortArray Leistung durch parallelSort
  • SPARK-53184 Behebt melt(), wenn Wertspalten Zeichenfolgen und Zahlen vermischen.
  • SPARK-53144 Den Befehl "CreateViewCommand" im "SparkConnectPlanner" ohne Seiteneffekte gestalten.
  • SPARK-53303 Verwenden des leeren Zustands-Encoders, wenn der anfangszustand in TWS nicht bereitgestellt wird
  • SPARK-52917 Unterstützung des Lesens zur Aktivierung von Round-Trips für Binärdaten im XML-Format
  • SPARK-53110 Implementieren der time_trunc-Funktion in PySpark
  • SPARK-53107 Implementieren der time_trunc-Funktion in Scala
  • SPARK-52146 Erkennen von zyklischen Funktionsverweisen in SQL UDFs
  • SPARK-52469 Verwenden der JEP 223-API zum Verarbeiten der Java-Version
  • SPARK-53094 Korrigiere CUBE mit Aggregat, das HAVING Klauseln enthält
  • SPARK-51874 TypedConfigBuilder für Scala Enumeration hinzufügen
  • SPARK-53287 Hinzufügen eines ANSI-Migrationshandbuchs
  • SPARK-43100 Push-basierte Shuffle-Metriken müssen ordnungsgemäß deserialisiert werden
  • SPARK-53045 DESCRIBE EXTENDED sollte robust für beschädigte Metadaten sein
  • SPARK-53114 Unterstützung join in JavaUtils
  • SPARK-53297 Fix StreamingTable Declarative Pipelines API docstring
  • SPARK-53181 Aktivieren von Dokumenttests unter ANSI
  • SPARK-52482 Verbessern der Ausnahmebehandlung beim Lesen bestimmter beschädigter zstd-Dateien
  • SPARK-52990 Unterstützen StringSubstitutor
  • SPARK-51874 TypedConfigBuilder für Scala Enumeration hinzufügen
  • SPARK-53169 Entfernen von Kommentaren im Zusammenhang mit "Set the logger level of File Appender to" aus log4j2.properties
  • SPARK-53080 Unterstützung cleanDirectory in SparkFileUtils und JavaUtils
  • SPARK-53045 DESCRIBE EXTENDED sollte robust für beschädigte Metadaten sein
  • SPARK-53000StringUtils.scalaStringConcat.scala In Modul umbenennen sql/api
  • SPARK-52952 PySpark UDF Type Coercion Dev Script hinzufügen
  • SPARK-52998 Mehrere Variablen innerhalb der Deklaration
  • SPARK-51817 Führen Sie die ansiConfig-Felder in den messageParameters von CAST_INVALID_INPUT und CAST_OVERFLOW wieder ein.
  • SPARK-52820 Aufzeichnen vollständiger Pläne in Gold-Dateien
  • SPARK-53274 Unterstützung für Left-and-Right-Join-Pushdown in JDBCScanBuilder
  • SPARK-52110 Implementieren der SQL-Syntaxunterstützung für Pipelines
  • SPARK-52950 Aktivieren des ANSI-Modus in DataSourceV2StrategySuite
  • SPARK-52947 Korrigieren des Bildpfads in der Programmieranleitung für deklarative Pipelines
  • SPARK-52592 Unterstützung für das Erstellen einer ps.Series aus einer ps.Series
  • SPARK-53301 Unterschiedliche Typ-Hinweise von Pandas-UDF und Arrow-UDF
  • SPARK-53146 MergeIntoTable im SparkConnectPlanner nebenwirkungsfrei machen
  • SPARK-53166 Verwenden SparkExitCode.EXIT_FAILURE im SparkPipelines Objekt
  • SPARK-53288 Beheben von Assertionsfehlern mit globaler Streaminggrenze
  • SPARK-52394 Behebung des Autocorr-Divisions-durch-Null-Fehlers im ANSI-Modus
  • SPARK-51555 Hinzufügen der funktion time_diff()
  • SPARK-52948 Aktivieren von test_np_spark_compat_frame unter ANSI
  • SPARK-53134 Das Bereinigen von nicht verwendeten ANSI-Importen in Tests
  • SPARK-52593 Vermeidung von CAST_INVALID_INPUT bei MultiIndex.to_series, Series.dot und DataFrame.dot im ANSI-Modus
  • SPARK-53291 Behebe die Nullfähigkeit für die Wertspalte
  • SPARK-53097 WriteOperationV2 im SparkConnectPlanner ohne Seiteneffekte gestalten
  • SPARK-53305 Unterstützung von TimeType in createDataFrame
  • SPARK-52914 Unterstützung On-Demand Log Loading für Rollprotokolle in History Server
  • SPARK-33538 Direkte Übertragung von IN-/NOT-Prädikaten zum Hive-Metastore
  • SPARK-52849 Hinzufügen stringifyException zu o.a.s.util.Utils
  • SPARK-52771 Behebung der Erweiterung des float32-Typs in truediv/floordiv
  • SPARK-52502 Übersicht über die Threadanzahl
  • SPARK-52788 Fehler beim Konvertieren eines Binärwerts des Typs BinaryType in XML
  • SPARK-53123 Unterstützung getRootCause in SparkErrorUtils
  • SPARK-53129SparkShell standardmäßig importieren und java.net._ verbessern
  • SPARK-53061 Unterstützung copyFileToDirectory in SparkFileUtils
  • SPARK-52683 Unterstützung von ExternalCatalog alterTableSchema
  • SPARK-52871 Zusammenführen o.a.s.sql.catalyst.util.SparkStringUtils mit o.a.s.util.SparkStringUtils
  • SPARK-52817 Verbesserung der Ausdrucksleistung
  • SPARK-52545 Standardisieren sie doppelte Anführungszeichen, um die SQL-Spezifikation zu befolgen
  • SPARK-52711 Behebung der Erweiterung des float32-Typs in mul/rmul unter ANSI
  • SPARK-52615 Ersetzen Von File.mkdirs durch Utils.createDirectory
  • SPARK-52381 JsonProtocol: Nur Unterklassen von SparkListenerEvent akzeptieren
  • SPARK-52613 Wiederherstellen der Ausgabe des vollständigen Stacktraces, wenn eine Ausnahme im HBase/Hive DelegationTokenProvider auftritt
  • SPARK-52651 Umgang mit benutzerdefiniertem Typ in geschachteltem Spaltenvektor
  • SPARK-52611 Korrigiere SQLConf Version für excludeSubqueryRefsFromRemoveRedundantAliases...
  • SPARK-52552 Überspringen der Durchsetzung von CHECK-Bedingungen für Löschungen durch Vektoren
  • SPARK-52587 spark-shell 2.13 Unterstützung -i-I Parameter
  • SPARK-52492 InMemoryRelation.convertToColumnarIfPossible anpassbar machen
  • SPARK-52451 Die WriteOperation im SparkConnectPlanner nebenwirkungsfrei gestalten
  • SPARK-53272 Umgestalten der SPJ-Pushdownlogik aus BatchScanExec
  • SPARK-53071 Unterstützung copyFile in SparkFileUtils
  • SPARK-51415 Unterstützung des Zeittyps mit make_timestamp()
  • SPARK-51554 Hinzufügen der funktion time_trunc()
  • SPARK-52426 Unterstützung für die Umleitung von Stdout/stderr zum Protokollierungssystem
  • SPARK-51834 Unterstützung der End-to-End-Tabelleneinschränkungsverwaltung
  • SPARK-53063 Implementieren und Aufrufen neuer APIs in FileCommitProtocol anstelle der veralteten
  • SPARK-52546 überprüft den sparkContext, ob er gestoppt wurde, wenn ein Catch-Codeblock in execute() ausgeführt wird, da andernfalls ein falscher Zustand zurückgegeben wird.
  • SPARK-53023 Entfernen einer Abhängigkeit aus dem sql/api-Modul
  • SPARK-52396 Artefakt-Root-Verzeichnis sollte tmpdir verwenden
  • SPARK-53131 Verbesserungen zur standardmäßigen Verbesserung von SparkShell, um java.nio.file._ zu importieren
  • SPARK-42322 Namen zuweisen to_LEGACY_ERROR_TEMP_2235
  • SPARK-51834 Unterstützung der Verwaltung von Tabelleneinschränkungen von Anfang bis Ende
  • SPARK-52484 Kind.supportsColumnar Überprüfung auf der Treiberseite in ColumnarToRowExec überspringen
  • SPARK-52384 Fehlerbehebung: Connect sollte bei JDBC-Optionen nicht auf Groß- und Kleinschreibung achten
  • SPARK-52034 Allgemeine Methoden im SparkOperation-Trait für Thriftserver-Operationen hinzufügen
  • SPARK-53031 Unterstützung getFile in SparkFileUtils
  • SPARK-52976 Problem beheben, dass Python-UDF collatierte Zeichenfolgen nicht als Eingabeparameter/Rückgabetyp akzeptieren (17.x)
  • SPARK-52943 Aktivierung von arrow_cast für alle Pandas-UDF-Auswertungstypen
  • SPARK-53263 Unterstützung von TimeType in df.toArrow
  • SPARK-53141 Hinzufügen von APIs zum Abrufen der Arbeitsspeichergröße und offheap-Speichergröße aus dem Ressourcenprofil
  • SPARK-53259 Korrigieren der Nachricht für INVALID_UDF_EVAL_TYPE
  • SPARK-53167 Spark launcher isRemote respektiert auch die Eigenschaftendatei
  • SPARK-53165 Hinzufügen SparkExitCode.CLASS_NOT_FOUND
  • SPARK-53171 Verbesserung der UTF8String-Wiederholungsfunktion
  • SPARK-53170 VerbessernSparkUserAppException, damit das cause-Parameter verfügbar ist.
  • SPARK-52989 Hinzufügen einer expliziten Close()-API zu Statusspeicher-Iteratoren
  • SPARK-53074 Vermeiden Sie partielles Clustering in SPJ, um die erforderliche Verteilung eines Kind-Elements zu erfüllen.
  • SPARK-52252 ScalaUDF-Encoder in Unterabfragen sollten aufgelöst werden
  • SPARK-53244 Speichern Sie während der Ansichtserstellung keine Konfigurationen, die den Dual-Run-Modus und den vorläufig aktivierten Modus beinhalten.
  • SPARK-53192 Speichern Sie eine Datenquelle im Spark Connect-Plancache immer.
  • SPARK-51813 Hinzufügen eines nicht nullierbaren DefaultCachedBatchKryoSerializers, um die Nullverteilung in DefaultCachedBatch serde zu vermeiden
  • SPARK-52904 Reapply "[SC-202233][python] Enable convertToArrowArrayS...
  • SPARK-53253 Korrektur der Registrierung von UDF vom Typ SQL_SCALAR_ARROW_ITER_UDF
  • SPARK-53243 Auflisten der unterstützten Auswertungstypen in Arrow-Knoten
  • SPARK-53130 Beheben toJson des Verhaltens von sortierten Zeichenfolgentypen
  • SPARK-53003 Unterstützung strip in SparkStringUtils
  • SPARK-51902 Synchronisation des OSS: Erzwingen der Check-Beschränkung bei der Tabelleneinfügung
  • SPARK-52047 PySparkValueError für nicht unterstützte Zeichnungstypen auslösen
  • SPARK-53004 Support abbreviate in SparkStringUtils
  • SPARK-53066 Verbessern der EXPLAIN Ausgabe für DSv2 Join Pushdown
  • SPARK-30848 ProductHash aus TreeNode entfernen
  • SPARK-53046 Verwenden von Java readAllBytes anstelle von IOUtils.toByteArray
  • SPARK-53206 Anstelle SparkFileUtils.move von com.google.common.io.Files.move
  • SPARK-53066 Verbesserung der EXPLAIN Ausgabe für DSv2 Join-Pushdown
  • SPARK-53069 Korrigieren falscher Zustandsspeichermetriken mit virtuellen Spaltenfamilien
  • SPARK-52904 ConvertToArrowArraySafely standardmäßig aktivieren [17.x]
  • SPARK-52821 Hinzufügen von int-DecimalType> pyspark udf Rückgabetyp-Zwang
  • SPARK-51562 Funktion hinzufügen time
  • SPARK-52971 Beschränken der Größe der Python-Worker-Warteschlange im Ruhezustand
  • SPARK-53057 Unterstützung sizeOf in SparkFileUtils und JavaUtils
  • SPARK-53040 Verbieten von Selbstreferenzen innerhalb der obersten CTEs in Rekursiven CTEs
  • SPARK-53104 Führen Sie ansi_mode_context ein, um mehrere Konfigurationsprüfungen pro API-Aufruf zu vermeiden.
  • SPARK-47547 Hinzufügen von BloomFilter V2 und Verwenden als Standard
  • SPARK-53098DeduplicateRelations sollte Ausdrücke nicht neu zuordnen, wenn der alte ExprId noch in der Ausgabe vorhanden ist.
  • SPARK-53049 Unterstützung toString in SparkStreamUtils
  • SPARK-53062 Support deleteQuietly in SparkFileUtils und JavaUtils
  • SPARK-53070 Unterstützung is(Not)?Empty in SparkCollectionUtils
  • SPARK-53020 JPMS Args sollten auch auf Nicht-SparkSubmit Prozess angewendet werden.
  • SPARK-52968 Zusätzliche Statusspeichermetriken ausgeben
  • SPARK-52975 Vereinfachen von Feldnamen in Pushdown Join SQL
  • SPARK-52926 Hinzufügen eines SQL-Metrics für die Dauer des Abrufs von Remoteschemata.
  • SPARK-53059 Arrow UDF muss nicht von Pandas abhängen
  • SPARK-52646 Vermeiden von CAST_INVALID_INPUT im __eq__ ANSI-Modus
  • SPARK-52622 Vermeiden von CAST_INVALID_INPUT im DataFrame.melt ANSI-Modus
  • SPARK-52985 Raise TypeError für Pandas numpy operand in Vergleichsoperatoren
  • SPARK-52580 Vermeidung von CAST_INVALID_INPUT im ANSI-Modus
  • SPARK-52549 Rekursive CTE-Selbstverweise aus Fensterfunktionen und innerhalb von Sortierungen deaktivieren
  • SPARK-52895 Fügen Sie keine doppelten Elemente hinzu resolveExprsWithAggregate
  • SPARK-50748 Behebung eines Race-Condition-Problems, das auftritt, wenn Vorgänge unterbrochen werden
  • SPARK-52737 Pushdown-Prädikat und Anzahl von Apps zu FsHistoryProvider beim Auflisten von Anwendungen
  • SPARK-53018 ArrowStreamArrowUDFSerializer sollte das Argument "arrow_cast" respektieren.
  • SPARK-53013 Fix Pfeiloptimierter Python UDTF, der keine Zeilen bei lateraler Verknüpfung zurückgibt
  • SPARK-51834 Synchronisierung von OSS: Unterstützung beim Hinzufügen oder Entfernen von End-to-End-Tabellenbeschränkungen
  • SPARK-52921 Angabe der Ausgabeteilung für UnionExec, um dieselbe Ausgabeteilung wie die Kinderoperatoren zu ermöglichen.
  • SPARK-52908 Verhindern, dass der Name der Iteratorvariablen mit Namen von Labels im Pfad zur Wurzel des AST kollidiert
  • SPARK-52954 Unterstützung von Arrow UDFs für Rückgabetypenkoerzierung
  • SPARK-52925 Korrekte Fehlermeldung für Verankerungs-Selbstverweise in rCTEs zurückgeben
  • SPARK-52889 Implementieren der current_time-Funktion in PySpark
  • SPARK-52675 Unterbrechen hängender ML-Handler in Tests
  • SPARK-52959 Unterstützung von UDT in Arrow-optimierten Python UDTF
  • SPARK-52962 BroadcastExchangeExec sollte keine Metriken zurücksetzen
  • SPARK-52956 Beibehalten von Aliasmetadaten beim Zusammenfassen von Projekten
  • SPARK-52890 Implementieren der funktionen to_time und try_to_time in PySpark
  • SPARK-52888 Implementieren der make_time-Funktion in PySpark
  • SPARK-52892 Unterstützung der TIME-Funktion für Stunde, Minute und Sekunde in PySpark
  • SPARK-52837 Unterstützung von TimeType in pyspark
  • SPARK-52023 Beheben von Datenbeschädigungen/Segfault-Rückgabeoption[Produkt] von udaf
  • SPARK-52955 Ändern der Rückgabetypen von WindowResolution.resolveOrder und WindowResolution.resolveFrame in WindowExpression
  • SPARK-52166 Hinzufügen von Unterstützung für PipelineEvents
  • SPARK-51834 Fix: Entferne "valid" aus toDDL
  • SPARK-52735 Beheben fehlender Fehlerbedingungen für SQL UDFs
  • SPARK-51834 Synchronisation des OSS-Supports für End-to-End-Erstellung/Ersetzung von Tabellen mit Einschränkungen
  • SPARK-51834 Synchronisieren des OSS-Updates "ResolvedIdentifier" nicht angewendete Aufrufe
  • SPARK-52929 Unterstützung des MySQL- und SQLServer-Connectors für DSv2-Join-Pushdown
  • SPARK-52448 Vereinfachten Strukturausdruck "Literal" hinzufügen
  • SPARK-52882 Implementieren der current_time-Funktion in Scala
  • SPARK-52905 Pfeil-UDF für Fenster
  • SPARK-52876 Korrigieren eines Tippfehlers von buffer auf body in ChunkFetchSuccess.toString
  • SPARK-52883 Implementieren der funktionen to_time und try_to_time in Scala
  • SPARK-52751 Spaltennamen nicht vorschnell in dataframe['col_name'] überprüfen
  • SPARK-52791 Beheben eines Fehlers beim Ableiten eines UDT mit einem null ersten Element
  • SPARK-52686Union sollte nur aufgelöst werden, wenn keine Duplikate vorhanden sind
  • SPARK-52881 Implementieren der make_time-Funktion in Scala
  • SPARK-52919 Korrektur des DSv2 Join-Pushdowns zur Verwendung von zuvor aliasten Spalten
  • SPARK-52866 Hinzufügen von Support für try_to_date
  • SPARK-52846 Fügen Sie eine Metrik in JDBCRDD hinzu, die misst, wie lange es dauert, das Resultset abzurufen.
  • SPARK-52859 SparkSystemUtils-Eigenschaft hinzufügen
  • SPARK-52823 Unterstützung für DSv2-Join-Pushdown für Oracle-Connector
  • SPARK-52165 Einrichten des Buildgerüsts für das Pipelineprojekt
  • SPARK-52869 Hinzufügen der FrameLessOffsetWindowFunction-Validierung zur validateResolvedWindowExpression für die Wiederverwendung im Einzel-Durchlauf-Analysator
  • SPARK-52885 Implementieren der Funktionen "Stunde", "Minute" und "Sekunde" in Scala für den TIME-Typ
  • SPARK-52903 Kürzen von Aliasen, die nicht in oberster Ebene sind, vor der LCA-Auflösung
  • SPARK-52832 Behebung der JDBC-Dialektbezeichnerquotierung
  • SPARK-52870 Variablennamen in Anführungszeichen in der Anweisung FOR setzen
  • SPARK-52859 Eigenschaft hinzufügen SparkSystemUtils
  • SPARK-52900 Verwenden SparkStringUtils.stringToSeq in FsHistoryProvider
  • SPARK-52809 Halten Sie keine Reader- und Iterator-Referenzen für alle Partitionen in Task-Completion-Listenern für die Aktualisierung der Metriken.
  • SPARK-52815 Verbessern SparkClassUtils zur Unterstützung getAllInterfaces
  • SPARK-52795 Einschließen von runId in Zustandsspeicherprotokolle
  • SPARK-52779 Unterstützung des TimeType-Literals in Connect
  • SPARK-52899 Reparatur des QueryExecutionErrorsSuite-Tests, um die H2Dialect erneut zu registrieren.
  • SPARK-52862 Korrigieren der Nullbarkeitsprüfung von Decimal('NaN')
  • SPARK-52214 Pfeil-UDF für Aggregation
  • SPARK-52787 Neuorganisieren der Streamingausführung um Laufzeit- und Prüfpunktbereiche
  • SPARK-51564 TIME-Analyse im 12-Stunden-Format
  • SPARK-52859 Eigenschaft hinzufügen SparkSystemUtils
  • SPARK-51562 Funktion hinzufügen time
  • SPARK-52850 Aufrufen von Konvertierungen überspringen, wenn identitätsfunktion
  • SPARK-52863 Codepfade für ältere Pandas-Versionen bereinigen
  • SPARK-52516 Speichern Sie den vorherigen Iteratorverweis nicht, nachdem Sie zur nächsten Datei in "ParquetPartitionReaderFactory" wechseln.
  • SPARK-52848 Vermeiden von Umwandlung in Double UmwandlungSZEIT/ZEITSTEMPEL in DEZIMAL
  • SPARK-52770 Unterstützung TIME Typ in Verbindung Proto
  • SPARK-52842 Neue Funktionen und Bugfixes für single-pass-Analyzer
  • SPARK-52620 Unterstützung der Umwandlung von TIME nach DECIMAL
  • SPARK-52783 Refaktorisieren der Validierungslogik der Fensterfunktion von CheckAnalysis zur Wiederverwendung im Single-Pass-Analyzer
  • SPARK-51695 Synchronisiere OSS zum Erstellen/Ersetzen/Ändern von Tabellen für eindeutige Einschränkungen über DSv2
  • SPARK-51695 Synchronisierung der OSS-Drop-Beschränkung via DSv2
  • SPARK-52824 CheckpointFileManager-Fehlerklassifizierung
  • SPARK-52829 Korrigieren von LocalDataToArrowConversion.convert um leere Zeilen ordnungsgemäß zu behandeln.
  • SPARK-52811 Optimieren der ArrowTableToRowsConversion.convert zur Verbesserung der Leistung
  • SPARK-52796 Optimierung von LocalDataToArrowConversion.convert zur Leistungssteigerung
  • SPARK-51695 Synchronisieren der Parseränderungen für 'Alter Table Add Constraint' in OSS
  • SPARK-52619 Cast TimeType zu IntegralType
  • SPARK-52187 Einführung von Join-Pushdown für DSv2
  • SPARK-52782 Zurückgeben von NULL von +/- am Datumszeitpunkt mit NULL
  • SPARK-51695 Einführung von Parseränderungen für Tabelleneinschränkungen (CHECK, PK, FK)
  • SPARK-52808spark.history.retainedApplications sollte positiv sein
  • SPARK-52776 Teilen Sie das Comm-Feld nicht in ProcfsMetricsGetter
  • SPARK-52793 Support isUnix unter o.a.s.util.Utils
  • SPARK-52792 Entfernen commons-lang3 der Abhängigkeit von network-common
  • SPARK-52797 Statt Utils.isWindows zu verwenden, erneut auszuwerten in PythonWorkerFactory
  • SPARK-52784 TimeZoneAware-Casting in WindowFrameTypeCoercion.createBoundaryCast hinzufügen
  • SPARK-52725 Verzögern der Initialisierung des Ressourcenprofil-Managers bis zum Laden des Plug-Ins
  • SPARK-52565 Erzwingen der Reihenfolgenauflösung vor anderen Sortierausdrücken
  • SPARK-52740 Behebung des NPE in HDFSBackedStateStoreProvider beim Zugriff auf StateStoreConf.sqlConf, wenn die Version des Prüfpunktformats >=2 ist.
  • SPARK-52673 Hinzufügen der Grpc RetryInfo-Behandlung zu Spark Connect-Wiederholungsrichtlinien
  • SPARK-52724 Verbesserung der OOM-Fehlerbehandlung bei Broadcast Joins mit SHUFFLE_MERGE-Hint-Unterstützung
  • SPARK-52781 Behebung des Tippfehlers "dtyeps" in internal.py
  • SPARK-52730 Speichern zugrunde liegender Treiber und Datenbankversion in JDBCRDD
  • SPARK-52727 Umgestalten der Fensterauflösung, um sie im Single Pass Analyzer wiederzuverwenden
  • SPARK-52695 Unterstützung für benutzerdefinierten Typschreibzugriff für xml-Dateiformate
  • SPARK-52722 Deprecate JdbcRDD-Klasse
  • SPARK-51695 Einführung von Parseränderungen für Tabelleneinschränkungen (CHECK, PK, FK)
  • SPARK-52763 SupportZEIT subtrahieren
  • SPARK-52768 Korrigieren des Tippfehlers "moveing" in pandas/series.py
  • SPARK-52730 Speichern zugrunde liegender Treiber und Datenbankversion in JDBCRDD
  • SPARK-52694 API hinzufügen o.a.s.sql.Encoders#udt
  • SPARK-52720 Behebung der float32 Typenerweiterung in add/radd unter ANSI
  • SPARK-52723 Serverseitige Spaltennamenüberprüfung
  • SPARK-52760 Behebung der float32-Typverbreiterung in sub/rsub gemäß ANSI
  • SPARK-52738 Unterstützung bei der Aggregation des TIME-Typs mit einem UDAF, wenn der zugrunde liegende Puffer ein UnsafeRow ist.
  • SPARK-52704 Vereinfachen der Interoperabilität zwischen SQLConf- und Dateiformatoptionen in TextBasedFileFormats
  • SPARK-52706 Beheben von Inkonsistenzen und Umgestalten von Grundtypen in Parser
  • SPARK-52718 Korrigieren der Erweiterung des float32-Typs in rmod/mod nach ANSI-Standards
  • SPARK-52736 Tippfehler 'moveing' in pyspark/pandas/generic.py korrigieren

Azure Databricks ODBC/JDBC-TREIBERunterstützung

Databricks unterstützt ODBC-/JDBC-Treiber, die in den letzten 2 Jahren veröffentlicht wurden. Laden Sie die kürzlich veröffentlichten Treiber und Upgrades herunter (ODBC herunterladen, JDBC herunterladen).

Systemumgebung

  • Betriebssystem: Ubuntu 24.04.3 LTS
  • Java: Zulu17.58+21-CA
  • Skala: 2.13.16
  • Python: 3.12.3
  • R: 4.4.2
  • Delta Lake: 4.0.0

Installierte Python-Bibliotheken

Bibliothek Version Bibliothek Version Bibliothek Version
annotated-types 0.7.0 anyio 4.6.2 argon2-cffi 21.3.0
argon2-cffi-bindings 21.2.0 Pfeil 1.3.0 asttokens 2.0.5
astunparse 1.6.3 async-lru 2.0.4 Attrs 24.3.0
autocommand 2.2.2 azure-common 1.1.28 Azure Core 1.34.0
Azure-Identity 1.20.0 azure-mgmt-core 1.5.0 azure-mgmt-web 8.0.0
azure-storage-blob 12.23.0 Azure-Speicher-Datei-Datensee 12.17.0 babel 2.16.0
backports.tarfile 1.2.0 beautifulsoup4 4.12.3 schwarz 24.10.0
Bleichmittel 6.2.0 Blinker 1.7.0 boto3 1.36.2
Botocore 1.36.3 CacheWerkzeuge 5.5.1 Zertifikat 2025.1.31
cffi 1.17.1 Chardet 4.0.0 Charset-Normalizer 3.3.2
klicken 8.1.7 cloudpickle 3.0.0 Kommunikation 0.2.1
Contourpy 1.3.1 Kryptographie 43.0.3 Fahrradfahrer 0.11.0
Cython 3.0.12 Databricks-SDK 0.49.0 dbus-python 1.3.2
debugpy 1.8.11 Dekorateur 5.1.1 defusedxml 0.7.1
Deprecated 1.2.13 Distlib 0.3.9 Docstring zu Markdown 0.11
ausführen 0.8.3 Übersicht der Facetten 1.1.1 fastapi 0.115.12
fastjsonschema 2.21.1 Dateisperrung 3.18.0 fonttools 4.55.3
fqdn 1.5.1 fsspec 2023.5.0 gitdb 4.0.11
GitPython 3.1.43 google-api-core 2.20.0 google-auth 2.40.0
Google Cloud Core 2.4.3 Google Cloud-Speicher 3.1.0 google-crc32c 1.7.1
google-resumable-media 2.7.2 googleapis-common-protos 1.65.0 GRPCIO 1.67.0
grpcio-status 1.67.0 h11 0.14.0 httpcore 1.0.2
httplib2 0.20.4 httpx 0.27.0 idna 3.7
importlib-metadata 6.6.0 importlib_resources 6.4.0 inflect 7.3.1
iniconfig 1.1.1 ipyflow-core 0.0.209 ipykernel 6.29.5
ipython 8.30.0 ipython-genutils 0.2.0 ipywidgets 7.8.1
isodate 0.6.1 isoduration 20.11.0 jaraco.context 5.3.0
jaraco.functools 4.0.1 jaraco.text 3.12.1 Jedi 0.19.2
Jinja2 3.1.5 jmespath 1.0.1 joblib 1.4.2
json5 0.9.25 jsonpointer 3.0.0 jsonschema 4.23.0
jsonschema-Spezifikationen 2023.7.1 Jupyter-Ereignisse 0.10.0 jupyter-lsp 2.2.0
jupyter_client 8.6.3 jupyter_core 5.7.2 jupyter_server 2.14.1
jupyter_server_terminals 0.4.4 jupyterlab 4.3.4 jupyterlab-pygments 0.1.2
jupyterlab-widgets 1.0.0 jupyterlab_server 2.27.3 kiwisolver 1.4.8
launchpadlib 1.11.0 lazr.restfulclient 0.14.6 lazr.uri 1.0.6
markdown-it-py 2.2.0 MarkupSafe 3.0.2 matplotlib 3.10.0
matplotlib-inline 0.1.7 mccabe 0.7.0 mdurl 0.1.0
mistune 2.0.4 mlflow-skinny 3.0.1 mmh3 5.1.0
more-itertools 10.3.0 msal 1.32.3 msal-extensions 1.3.1
mypy-Erweiterungen 1.0.0 nbclient 0.8.0 nbconvert 7.16.4
nbformat 5.10.4 nest-asyncio 1.6.0 nodeenv 1.9.1
Notebook 7.3.2 Notebook-Shim 0.2.3 numpy 2.1.3
oauthlib 3.2.2 opentelemetry-api 1.32.1 opentelemetry-sdk 1.32.1
opentelemetry-semantic-conventions (opentelemetrie-semantische-Konventionen) 0.53b1 Überschreibt 7.4.0 Verpackung 24,2
Pandas 2.2.3 Pandocfilter 1.5.0 Parso 0.8.4
pathspec 0.10.3 patsy 1.0.1 pexpect 4.8.0
Kissen 11.1.0 pip 25.0.1 platformdirs 3.10.0
plotly 5.24.1 plugin-fähig 1.5.0 prometheus_client 0.21.0
Prompt-Toolkit 3.0.43 proto-plus 1.26.1 protobuf 5.29.4
psutil 5.9.0 psycopg2 2.9.3 ptyprocess 0.7.0
pure-eval 0.2.2 pyarrow 19.0.1 Pyasn1 0.4.8
Pyasn1-Module 0.2.8 pyccolo 0.0.71 Pycparser 2.21
Pydantisch 2.10.6 pydantic_core 2.27.2 Pyflakes 3.2.0
Pygments 2.15.1 PyGObject 3.48.2 pyiceberg 0.9.0
PyJWT 2.10.1 pyodbc 5.2.0 pyparsing 3.2.0
pyright 1.1.394 pytest 8.3.5 Python-dateutil 2.9.0.post0
python-json-logger 3.2.1 python-lsp-jsonrpc 1.1.2 Python-LSP-Server 1.12.0
pytoolconfig 1.2.6 Pytz 2024.1 PyYAML 6.0.2
pyzmq 26.2.0 referenzierung 0.30.2 requests 2.32.3
rfc3339-Prüfer 0.1.4 rfc3986-validator 0.1.1 rich 13.9.4
Seil 1.12.0 rpds-py 0.22.3 rsa 4.9.1
s3transfer 0.11.3 scikit-learn 1.6.1 SciPy 1.15.1
Seegeboren 0.13.2 Send2Trash 1.8.2 setuptools 74.0.0
Sechs 1.16.0 smmap 5.0.0 sniffio 1.3.0
sortierte Container 2.4.0 Sieb für Suppe 2,5 sqlparse 0.5.3
ssh-import-id 5.11 Stapeldaten 0.2.0 Starlet 0.46.2
StatistikModelle 0.14.4 strictyaml 1.7.3 Hartnäckigkeit 9.0.0
terminado 0.17.1 Threadpoolctl 3.5.0 tinycss2 1.4.0
tokenize_rt 6.1.0 tomli 2.0.1 Tornado 6.4.2
traitlets 5.14.3 Typwächter 4.3.0 types-python-dateutil 2.9.0.20241206
typing_extensions 4.12.2 tzdata 2024.1 ujson 5.10.0
unbeaufsichtigte Aktualisierungen 0,1 URI-Vorlage 1.3.0 urllib3 2.3.0
uvicorn 0.34.2 virtualenv 20.29.3 wadllib 1.3.6
wcwidth 0.2.5 webcolors 24.11.1 Webkodierungen 0.5.1
WebSocket-Client 1.8.0 Was ist neu im Patch 1.0.2 Rad 0.45.1
widgetsnbextension 3.6.6 Eingehüllt 1.17.0 yapf 0.40.2
zipp 3.21.0

Installierte R-Bibliotheken

R-Bibliotheken werden aus der Posit Package Manager CRAN-Momentaufnahme am 2025-03-20installiert.

Bibliothek Version Bibliothek Version Bibliothek Version
Pfeil 19.0.1 Askpass 1.2.1 prüfen, dass 0.2.1
backports 1.5.0 Basis 4.4.2 base64enc 0.1-3
bigD 0.3.0 bit 4.6.0 Bit64 4.6.0-1
bitops 1.0-9 Klumpen 1.2.4 boot 1.3-30
brew 1.0-10 brio 1.1.5 Besen 1.0.7
bslib 0.9.0 cachem 1.1.0 callr 3.7.6
Caret 7.0-1 CellRanger 1.1.0 Chron 2.3-62
class 7.3-22 cli 3.6.5 clipr 0.8.0
clock 0.7.2 Gruppe 2.1.6 Codetools 0.2-20
Farbraum 2.1-1 Commonmark 1.9.5 Kompilierer 4.4.2
config 0.3.2 conflicted 1.2.0 cpp11 0.5.2
Buntstift 1.5.3 Zugangsdaten 2.0.2 cURL 6.4.0
data.table 1.17.0 Datensätze 4.4.2 DBI 1.2.3
dbplyr 2.5.0 Beschreibung 1.4.3 devtools 2.4.5
Diagramm 1.6.5 diffobj 0.3.5 verdauen 0.6.37
downlit 0.4.4 dplyr 1.1.4 dtplyr 1.3.1
e1071 1.7-16 Ellipse 0.3.2 auswerten 1.0.3
Fans 1.0.6 farver 2.1.2 fastmap 1.2.0
fontawesome 0.5.3 forcats 1.0.0 foreach 1.5.2
Fremd 0.8-86 schmieden 0.2.0 fs 1.6.5
Zukunft 1.34.0 future.apply 1.11.3 gargle 1.5.2
Generika 0.1.4 gert 2.1.4 ggplot2 3.5.1
gh 1.4.1 git2r 0.35.0 gitcreds 0.1.2
glmnet 4.1-8 globals 0.18.0 Klebstoff 1.8.0
googledrive 2.1.1 googlesheets4 1.1.1 gower 1.0.2
Graphik 4.4.2 grGeräte 4.4.2 grid 4.4.2
gridExtra 2.3 gsubfn 0.7 GT 0.11.1
g-Tabelle 0.3.6 Schutzhelm 1.4.1 Hafen 2.5.4
highr 0.11 HMS 1.1.3 HTML-Werkzeuge 0.5.8.1
htmlwidgets 1.6.4 httpuv 1.6.15 httr 1.4.7
httr2 1.1.1 Ausweise 1.0.1 ini 0.3.1
IPRED 0.9-15 Isobande 0.2.7 iterators 1.0.14
jquerylib 0.1.4 jsonlite 1.9.1 juicyjuice 0.1.0
KernSmooth 2.23-22 Knitr 1,50 Etikettierung 0.4.3
later 1.4.1 lattice 0.22-5 lava 1.8.1
Lebenszyklus 1.0.4 „listenv“ 0.9.1 Schmiermittel 1.9.4
magrittr 2.0.3 markdown 1.13 MASS 7.3-60.0.1
Matrix 1.6-5 memoise 2.0.1 Methodik 4.4.2
mgcv 1.9-1 Mime-Kunst 0,13 miniUI 0.1.1.1
mlflow 2.20.4 ModelMetrics 1.2.2.2 Modellierer 0.1.11
munsell 0.5.1 nlme 3.1-164 NNET 7.3-19
numDeriv 2016.8 bis 1.1 OpenSSL 2.3.3 parallel 4.4.2
parallel dazu 1.42.0 Säule 1.11.0 pkgbuild 1.4.6
pkgconfig 2.0.3 pkgdown 2.1.1 pkgload 1.4.0
plogr 0.2.0 plyr 1.8.9 loben 1.0.0
prettyunits 1.2.0 pROC 1.18.5 Prozessx 3.8.6
prodlim 2024.06.25 profvis 0.4.0 Fortschritt 1.2.3
progressr 0.15.1 Versprechungen 1.3.2 proto 1.0.0
Stellvertreter 0.4-27 P.S. 1.9.0 purrr 1.0.4
R6 2.6.1 ragg 1.3.3 randomForest 4.7-1.2
rappdirs 0.3.3 rcmdcheck 1.4.0 RColorBrewer 1.1-3
Rcpp 1.0.14 RcppEigen 0.3.4.0.2 reaktivierbar 0.4.4
reactR 0.6.1 READR 2.1.5 readxl (Softwarepaket zum Lesen von Excel-Dateien) 1.4.5
Rezepte 1.2.0 Rückspiel 2.0.0 Rückspiel2 2.1.2
fernbedienungen 2.5.0 reprex 2.1.1 Umform2 1.4.4
rlang 1.1.6 RMarkdown 2.29 RODBC 1.3-26
roxygen2 7.3.2 rpart 4.1.23 rprojroot 2.0.4
Rserve 1.8-15 RSQLite 2.3.9 rstudioapi 0.17.1
rversions 2.1.2 RVEST 1.0.4 Sass 0.4.9
scales 1.3.0 selectr 0.4-2 Sitzungsinformationen 1.2.3
Gestalt 1.4.6.1 glänzend 1.10.0 sourcetools 0.1.7-1
Sparklyr 1.9.1 SparkR 4.0.0 sparsevctrs 0.3.1
spatial 7.3-17 splines 4.4.2 sqldf 0.4-11
SQUAREM 2021.1 Statistiken 4.4.2 Statistiken4 4.4.2
Stringi 1.8.7 stringr 1.5.1 Überleben 3.5-8
swagger 5.17.14.1 sys 3.4.3 systemfonts 1.2.1
tcltk 4.4.2 testthat 3.2.3 Textgestaltung 1.0.0
Tibble 3.3.0 tidyr 1.3.1 tidyselect 1.2.1
tidyverse 2.0.0 Zeitumstellung 0.3.0 timeDate 4041.110
tinytex 0.56 Werkzeuge 4.4.2 Zeitzonendatenbank (tzdb) 0.5.0
URL-Prüfer 1.0.1 Nutze dies 3.1.0 utf8 1.2.6
utils 4.4.2 Universelle eindeutige Kennung (UUID) 1.2-1 V8 6.0.2
VCTRS 0.6.5 viridisLite 0.4.2 vroom 1.6.5
Waldo 0.6.1 whisker 0.4.1 Withr 3.0.2
xfun 0.51 xml2 1.3.8 xopen 1.0.1
xtable 1.8-4 YAML-Dateiformat 2.3.10 zeallot 0.1.0
zip 2.3.2

Installierte Java- und Scala-Bibliotheken (Scala 2.13-Clusterversion)

Gruppen-ID Artefakt-ID Version
antlr antlr 2.7.7
com.amazonaws Amazon-Kinesis-Client 1.12.0
com.amazonaws AWS Java SDK für Auto Scaling 1.12.638
com.amazonaws aws-java-sdk-cloudformation 1.12.638
com.amazonaws aws-java-sdk-cloudfront 1.12.638
com.amazonaws aws-java-sdk-cloudhsm 1.12.638
com.amazonaws aws-java-sdk-cloudsearch (Cloud-Suchdienst) 1.12.638
com.amazonaws aws-java-sdk-cloudtrail 1.12.638
com.amazonaws aws-java-sdk-cloudwatch 1.12.638
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.638
com.amazonaws aws-java-sdk-codedeploy 1.12.638
com.amazonaws aws-java-sdk-cognitoidentity 1.12.638
com.amazonaws aws-java-sdk-cognitosync 1.12.638
com.amazonaws AWS-Java-SDK-Config 1.12.638
com.amazonaws aws-java-sdk-core 1.12.638
com.amazonaws aws-java-sdk-datapipeline 1.12.638
com.amazonaws aws-java-sdk-directconnect 1.12.638
com.amazonaws aws-java-sdk-directory 1.12.638
com.amazonaws aws-java-sdk-dynamodb 1.12.638
com.amazonaws aws-java-sdk-ec2 1.12.638
com.amazonaws aws-java-sdk-ecs 1.12.638
com.amazonaws aws-java-sdk-efs 1.12.638
com.amazonaws aws-java-sdk-elasticache 1.12.638
com.amazonaws aws-java-sdk-elasticbeanstalk (Java SDK für Elastic Beanstalk von AWS) 1.12.638
com.amazonaws aws-java-sdk-elasticloadbalancing (Software Development Kit für Elastic Load Balancing in AWS mit Java) 1.12.638
com.amazonaws aws-java-sdk-elastictranscoder (AWS Java SDK für Elastic Transcoder) 1.12.638
com.amazonaws aws-java-sdk-emr 1.12.638
com.amazonaws aws-java-sdk-glacier 1.12.638
com.amazonaws aws-java-sdk-glue (eine Bibliothek für den Glue-Service von Amazon Web Services) 1.12.638
com.amazonaws aws-java-sdk-iam 1.12.638
com.amazonaws aws-java-sdk-importexport 1.12.638
com.amazonaws aws-java-sdk-kinesis 1.12.638
com.amazonaws aws-java-sdk-kms 1.12.638
com.amazonaws aws-java-sdk-lambda 1.12.638
com.amazonaws aws-java-sdk-Protokolle 1.12.638
com.amazonaws aws-java-sdk-machinelearning (Maschinelles Lernen) 1.12.638
com.amazonaws aws-java-sdk-opsworks 1.12.638
com.amazonaws aws-java-sdk-rds 1.12.638
com.amazonaws aws-java-sdk-redshift 1.12.638
com.amazonaws aws-java-sdk-route53 1.12.638
com.amazonaws aws-java-sdk-s3 1.12.638
com.amazonaws aws-java-sdk-ses 1.12.638
com.amazonaws aws-java-sdk-simpledb 1.12.638
com.amazonaws aws-java-sdk-simpleworkflow 1.12.638
com.amazonaws aws-java-sdk-sns 1.12.638
com.amazonaws aws-java-sdk-sqs 1.12.638
com.amazonaws aws-java-sdk-ssm 1.12.638
com.amazonaws aws-java-sdk-storagegateway 1.12.638
com.amazonaws aws-java-sdk-sts 1.12.638
com.amazonaws aws-java-sdk-Support (Unterstützung für AWS Java SDK) 1.12.638
com.amazonaws AWS-Java-SDK-SWF-Bibliotheken 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.638
com.amazonaws jmespath-java 1.12.638
com.clearspring.analytics Datenstrom 2.9.8
com.databricks Rserve 1.8-3
com.databricks databricks-sdk-java 0.27.0
com.databricks Jets3t 0.7.1-0
com.databricks.scalapb scalapb-runtime_2.13 0.4.15-11
com.esotericsoftware kryo-shaded 4.0.3
com.esotericsoftware Minlog 1.3.0
com.fasterxml Klassenkamerad 1.5.1
com.fasterxml.jackson.core Jackson-Anmerkungen 2.18.2
com.fasterxml.jackson.core jackson-core 2.18.2
com.fasterxml.jackson.core Jackson-Datenbindung 2.18.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.18.2
com.fasterxml.jackson.dataformat jackson-dataformat-yaml 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.18.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.18.2
com.fasterxml.jackson.module jackson-module-paranamer 2.18.2
com.fasterxml.jackson.module jackson-module-scala_2.13 2.18.2
com.github.ben-manes.coffein Koffein 2.9.3
com.github.blemale scaffeine_2.13 4.1.0
com.github.fommil Jniloader 1.1
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java 1.1-Einheimische
com.github.fommil.netlib native_system-java 1.1
com.github.fommil.netlib native_system-java 1.1-Einheimische
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1-Einheimische
com.github.fommil.netlib netlib-native_system-linux-x86_64 1.1-Einheimische
com.github.luben zstd-jni 1.5.6-10
com.github.virtuald curvesapi 1.08
com.github.wendykierp JTransforms 3.1
com.google.api.grpc proto-google-common-protos 2.5.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.11.0
com.google.crypto.tink tink 1.16.0
com.google.errorprone fehleranfällige Annotationen 2.36.0
com.google.flatbuffers flatbuffers-java 24.3.25
com.google.guava failureaccess 1.0.2
com.google.guava Guave 33.4.0-jre
com.google.guava hörbareZukunft 9999.0-empty-to-avoid-conflict-with-guava
com.google.j2objc j2objc-annotations 3.0.0
com.google.protobuf protobuf-java 3.25.5
com.google.protobuf protobuf-java-util 3.25.5
com.helger profiler 1.1.1
com.ibm.icu icu4j 75.1
com.jcraft jsch 0.1.55
com.lihaoyi sourcecode_2.13 0.1.9
com.microsoft.azure Azure Data Lake Store SDK (Software Development Kit für Azure Data Lake Store) 2.3.10
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.microsoft.sqlserver mssql-jdbc 12.8.0.jre8
com.ning compress-lzf (Datenkompression mit LZF-Algorithmus) 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning json 1.8
com.thoughtworks.paranamer Paranamer 2.8
com.trueaccord.lenses lenses_2.13 0.4.13
com.twitter chill-java 0.10.0
com.twitter chill_2.13 0.10.0
com.twitter util-app_2.13 19.8.1
com.twitter util-core_2.13 19.8.1
com.twitter util-function_2.13 19.8.1
com.twitter util-jvm_2.13 19.8.1
com.twitter util-lint_2.13 19.8.1
com.twitter util-registry_2.13 19.8.1
com.twitter util-stats_2.13 19.8.1
com.typesafe config 1.4.3
com.typesafe.scala-logging scala-logging_2.13 3.9.2
com.uber h3 3.7.3
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
com.zaxxer SparseBitSet 1.3
commons-cli commons-cli 1.9.0
commons-codec commons-codec 1.17.2
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
Commons-Dateihochladen Commons-Dateihochladen 1.5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.18.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 3.0.3
dev.ludovic.netlib blas 3.0.3
dev.ludovic.netlib lapack 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift Luftkompressor 2.0.2
io.delta delta-sharing-client_2.13 1.3.5
io.dropwizard.metrics Metrikanmerkung 4.2.30
io.dropwizard.metrics metrics-core 4.2.30
io.dropwizard.metrics Metrics-Graphit 4.2.30
io.dropwizard.metrics metrics-healthchecks 4.2.30
io.dropwizard.metrics Metrics-Jetty9 4.2.30
io.dropwizard.metrics Metrics-JMX 4.2.30
io.dropwizard.metrics metrics-json 4.2.30
io.dropwizard.metrics metrics-jvm 4.2.30
io.dropwizard.metrics Metrik-Servlets 4.2.30
io.github.java-diff-utils java-diff-utils 4.15
io.netty netty-all 4.1.118.Final
io.netty netty-buffer 4.1.118.Final
io.netty Netty Codec 4.1.118.Final
io.netty netty-codec-http 4.1.118.Final
io.netty netty-codec-http2 4.1.118.Final
io.netty netty-codec-socks 4.1.118.Final
io.netty netty-common 4.1.118.Final
io.netty netty-handler 4.1.118.Final
io.netty netty-handler-proxy 4.1.118.Final
io.netty Netty-Resolver 4.1.118.Final
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-linux-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-linux-x86_64
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-osx-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-osx-x86_64
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-windows-x86_64
io.netty netty-tcnative-Klassen 2.0.70.Final
io.netty netty-transport 4.1.118.Final
io.netty netty-transport-classes-epoll 4.1.118.Final
io.netty netty-transport-classes-kqueue 4.1.118.Final
io.netty netty-transport-native-epoll 4.1.118.Final
io.netty netty-transport-native-epoll 4.1.118.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.118.Final-linux-riscv64
io.netty netty-transport-native-epoll 4.1.118.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.118.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.118.Final-osx-x86_64
io.netty netty-transport-native-unix-common 4.1.118.Final
io.prometheus simpleclient 0.16.1-databricks
io.prometheus simpleclient_common 0.16.1-databricks
io.prometheus simpleclient_dropwizard 0.16.1-databricks
io.prometheus simpleclient_pushgateway 0.16.1-databricks
io.prometheus simpleclient_servlet 0.16.1-databricks
io.prometheus simpleclient_servlet_common 0.16.1-databricks
io.prometheus simpleclient_tracer_common 0.16.1-databricks
io.prometheus simpleclient_tracer_otel 0.16.1-databricks
io.prometheus simpleclient_tracer_otel_agent 0.16.1-databricks
io.prometheus.jmx Sammler 0.18.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation Aktivierung 1.1.1
javax.annotation javax.annotation-api 1.3.2
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.media jai_core jai_core_dummy
javax.transaction jta 1.1
javax.transaction Transaktions-API 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.13.0
net.java.dev.jna jna 5.8.0
net.razorvine Gurke 1.5
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.Schneeflocke snowflake-ingest-sdk 0.9.6
net.sourceforge.f2j arpack_combined_all 0,1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.13.1
org.antlr stringtemplate 3.2.1
org.apache.ant Ameise 1.10.11
org.apache.ant ant-jsch 1.10.11
org.apache.ant ant-launcher 1.10.11
org.apache.arrow Pfeilformat 18.2.0
org.apache.arrow arrow-memory-core 18.2.0
org.apache.arrow Arrow-Memory-Netty 18.2.0
org.apache.arrow arrow-memory-netty-buffer-patch 18.2.0
org.apache.arrow Pfeil-Vektor 18.2.0
org.apache.avro avro 1.12.0
org.apache.avro avro-ipc 1.12.0
org.apache.avro avro-mapred 1.12.0
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.27.1
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.17.0
org.apache.commons commons-math3 3.6.1
org.apache.commons Commons-Text 1.13.0
org.apache.curator Kurator-Klient 5.7.1
org.apache.curator curator-framework 5.7.1
org.apache.curator Rezepte des Kurators 5.7.1
org.apache.datasketches datasketches-java 6.1.1
org.apache.datasketches datasketches-memory 3.0.2
org.apache.derby derby 10.14.2.0
org.apache.hadoop Hadoop-Client-Laufzeit 3.4.1
org.apache.hive hive-beeline 2.3.10
org.apache.hive hive-cli 2.3.10
org.apache.hive hive-jdbc 2.3.10
org.apache.hive hive-llap-Client 2.3.10
org.apache.hive hive-llap-common 2.3.10
org.apache.hive hive-serde 2.3.10
org.apache.hive hive-shims 2.3.10
org.apache.hive hive-storage-api 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.10
org.apache.hive.shims hive-shims-common 2.3.10
org.apache.hive.shims Hive-Shims-Scheduler 2.3.10
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy ivy 2.5.3
org.apache.logging.log4j log4j-1.2-api 2.24.3
org.apache.logging.log4j log4j-api 2.24.3
org.apache.logging.log4j log4j-core 2.24.3
org.apache.logging.log4j log4j-layout-template-json 2.24.3
org.apache.logging.log4j log4j-slf4j2-impl 2.24.3
org.apache.orc orc-core 2.1.1-shaded-protobuf
org.apache.orc ORC-Format 1.1.0-shaded-protobuf
org.apache.orc orc-mapreduce 2.1.1-shaded-protobuf
org.apache.orc Orc-Shims 2.1.1
org.apache.poi poi 5.4.1
org.apache.poi poi-ooxml 5.4.1
org.apache.poi poi-ooxml-full 5.4.1
org.apache.poi poi-ooxml-lite 5.4.1
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.16.0
org.apache.ws.xmlschema xmlschema-core 2.3.1
org.apache.xbean xbean-asm9-shaded 4,26
org.apache.xmlbeans xmlbeans 5.3.0
org.apache.yetus audience-annotations 0.13.0
org.apache.zookeeper Tierpfleger 3.9.3
org.apache.zookeeper zookeeper-jute 3.9.3
org.checkerframework checker-qual 3.43.0
org.codehaus.janino Commons-Compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty Jetty-Client 9.4.53.v20231009
org.eclipse.jetty jetty-continuation 9.4.53.v20231009
org.eclipse.jetty Jetty-HTTP 9.4.53.v20231009
org.eclipse.jetty jetty-io 9.4.53.v20231009
org.eclipse.jetty jetty-jndi 9.4.53.v20231009
org.eclipse.jetty Jetty-Plus 9.4.53.v20231009
org.eclipse.jetty Jetty-Proxy 9.4.53.v20231009
org.eclipse.jetty Jetty-Sicherheit 9.4.53.v20231009
org.eclipse.jetty Jetty Server 9.4.53.v20231009
org.eclipse.jetty jetty-servlet 9.4.53.v20231009
org.eclipse.jetty jetty-servlets 9.4.53.v20231009
org.eclipse.jetty Jetty-Util 9.4.53.v20231009
org.eclipse.jetty jetty-util-ajax 9.4.53.v20231009
org.eclipse.jetty Jetty-Webanwendung 9.4.53.v20231009
org.eclipse.jetty jetty-xml 9.4.53.v20231009
org.eclipse.jetty.websocket WebSocket-API 9.4.53.v20231009
org.eclipse.jetty.websocket WebSocket-Client 9.4.53.v20231009
org.eclipse.jetty.websocket websocket-common 9.4.53.v20231009
org.eclipse.jetty.websocket WebSocket-Server 9.4.53.v20231009
org.eclipse.jetty.websocket websocket-servlet 9.4.53.v20231009
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-Ortungssystem 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-neu verpackt 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.41
org.glassfish.jersey.containers jersey-container-servlet-core 2.41
org.glassfish.jersey.core jersey-client 2.41
org.glassfish.jersey.core jersey-common 2.41
org.glassfish.jersey.core jersey-server 2.41
org.glassfish.jersey.inject jersey-hk2 2.41
org.hibernate.validator hibernate-validator 6.2.5.Final
org.ini4j ini4j 0.5.4
org.javassist Javassist 3.29.2-GA
org.jboss.logging jboss-logging 3.4.1.Final
org.jdbi jdbi 2.63.1
org.jetbrains Anmerkungen 17.0.0
org.jline jline 3.27.1-jdk8
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.13 4.0.7
org.json4s json4s-core_2.13 4.0.7
org.json4s json4s-jackson-core_2.13 4.0.7
org.json4s json4s-jackson_2.13 4.0.7
org.json4s json4s-scalap_2.13 4.0.7
org.lz4 lz4-java 1.8.0-databricks-1
org.mlflow mlflow-spark_2.13 2.9.1
org.objenesis objenesis 3.3
org.postgresql postgresql 42.6.1
org.roaringbitmap RoaringBitmap 1.2.1
org.rocksdb rocksdbjni 9.8.4
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.13 2.13.16
org.scala-lang scala-library_2.13 2.13.16
org.scala-lang scala-reflect_2.13 2.13.16
org.scala-lang.modules scala-collection-compat_2.13 2.11.0
org.scala-lang.modules scala-java8-compat_2.13 0.9.1
org.scala-lang.modules scala-parallel-collections_2.13 1.2.0
org.scala-lang.modules scala-parser-combinators_2.13 2.4.0
org.scala-lang.modules scala-xml_2.13 2.3.0
org.scala-sbt Testoberfläche 1,0
org.scalacheck scalacheck_2.13 1.18.0
org.scalactic scalactic_2.13 3.2.19
org.scalanlp breeze-macros_2.13 2.1.0
org.scalanlp breeze_2.13 2.1.0
org.scalatest ScalaTest-kompatibel 3.2.19
org.scalatest scalatest-core_2.13 3.2.19
org.scalatest scalatest-diagrams_2.13 3.2.19
org.scalatest scalatest-featurespec_2.13 3.2.19
org.scalatest scalatest-flatspec_2.13 3.2.19
org.scalatest scalatest-freespec_2.13 3.2.19
org.scalatest scalatest-funspec_2.13 3.2.19
org.scalatest scalatest-funsuite_2.13 3.2.19
org.scalatest scalatest-matchers-core_2.13 3.2.19
org.scalatest scalatest-mustmatchers_2.13 3.2.19
org.scalatest scalatest-propspec_2.13 3.2.19
org.scalatest scalatest-refspec_2.13 3.2.19
org.scalatest scalatest-shouldmatchers_2.13 3.2.19
org.scalatest scalatest-wordspec_2.13 3.2.19
org.scalatest scalatest_2.13 3.2.19
org.slf4j jcl-over-slf4j 2.0.16
org.slf4j jul-to-slf4j 2.0.16
org.slf4j slf4j-api 2.0.16
org.slf4j slf4j-simple 1.7.25
org.threeten threeten-extra 1.8.0
org.tukaani xz 1.10
org.typelevel algebra_2.13 2.8.0
org.typelevel cats-kernel_2.13 2.8.0
org.typelevel spire-macros_2.13 0.18.0
org.typelevel spire-platform_2.13 0.18.0
org.typelevel spire-util_2.13 0.18.0
org.typelevel spire_2.13 0.18.0
org.wildfly.openssl wildfly-openssl 1.1.3.Final
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.10.3
org.yaml snakeyaml 2.0
Oro Oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 2.5.0-linux-x86_64
Stax stax-api 1.0.1

Tipp

Versionshinweise zu Versionen von Databricks Runtime, die das Ende des Supports (EoS) erreicht haben, finden Sie unter Versionshinweise zum Ende des Supports für Databricks Runtime. Die EoS Databricks-Runtime-Versionen wurden eingestellt und werden möglicherweise nicht aktualisiert.