Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Die folgenden Versionshinweise enthalten Informationen zu Databricks Runtime 17.2, unterstützt von Apache Spark 4.0.0.
Diese Version enthält alle Features, Verbesserungen und Fehlerbehebungen aller vorherigen Databricks-Runtime-Versionen. Databricks hat diese Version im September 2025 veröffentlicht.
Neue Features und Verbesserungen
- LIKE unterstützt UTF8_LCASE Sortierung
-
st_exteriorringFunktion wird jetzt unterstützt -
Anzeigen von Pushdowndetails in
EXPLAINund Spark UI für Remotescans -
Deklarieren mehrerer Sitzungs- oder lokaler Variablen in einer einzelnen
DECLAREAnweisung -
Unterstützungsstichwort
TEMPORARYfür die Erstellung von Metrikansichten - Unterstützen zusätzlicher Befehle mit fein abgestimmter Zugriffssteuerung
-
Das selektive und atomare Ersetzen von Daten durch
INSERT REPLACE USINGundINSERT REPLACE ON(GA) -
Native E/A für
LokiFileSystem.getFileStatusS3 verwenden - STANDARDMÄßIG aktivierter ANSI-Modus für Pandas-API auf Spark
-
Automatisches Laden leitet Partitionsspalten im
singleVariantColumnModus ab
LIKE unterstützt UTF8_LCASE Sortierung
Der LIKE-Operator unterstützt jetzt die UTF8_LCASE-Vergleichsreihenfolge, sodass der Abgleich ohne Beachtung der Groß- und Kleinschreibung erfolgt.
st_exteriorring Funktion wird jetzt unterstützt
Sie können nun die st_exteriorring Funktion verwenden, um die äußere Grenze eines Polygons zu extrahieren und als Linienzeichenfolge zurückzugeben. Siehe st_exteriorring Funktion.
Anzeigen von Pushdowndetails in EXPLAIN und Spark UI für Remotescans
Der EXPLAIN Befehl und die Spark-Benutzeroberfläche für RemoteSparkConnectScan auf dedizierten Compute-Knoten zeigen jetzt Prädikate, Aggregationen, GROUP BY-Klauseln, Grenzen und Beispiele an, die in den entfernten Scan verschoben werden.
Deklarieren mehrerer Sitzungs- oder lokaler Variablen in einer einzelnen DECLARE Anweisung
In Databricks Runtime 17.2 und höher können Sie mehrere Sitzungs- oder lokale Variablen desselben Typs und Standardwerts in einer einzelnen DECLARE Anweisung deklarieren. Siehe DECLARE VARIABLE und BEGIN END Compound-Anweisung.
Unterstützungsstichwort TEMPORARY für die Erstellung von Metrikansichten
Sie können nun das TEMPORARY Schlüsselwort verwenden, wenn Sie eine Metrikansicht erstellen. Temporäre Metrikansichten sind nur in der Sitzung sichtbar, die sie erstellt hat, und werden gelöscht, wenn die Sitzung endet. Siehe CREATE VIEW.
Unterstützung zusätzlicher Befehle mit fein abgestimmter Zugriffssteuerung
Feinkörnige Zugriffssteuerung auf dedizierten Compute unterstützt jetzt die FSCK REPAIR TABLE und DESCRIBE DETAIL Befehle.
Selektiv und atomar Daten durch INSERT REPLACE USING und INSERT REPLACE ON ersetzen (GA)
INSERT REPLACE USING und INSERT REPLACE ON sind jetzt allgemein für Databricks Runtime 17.2 verfügbar. Beide SQL-Befehle ersetzen einen Teil der Tabelle durch das Ergebnis einer Abfrage.
INSERT REPLACE USING ersetzt Zeilen, wenn die USING Spalten im Sinne der Gleichheit verglichen gleich sind.
INSERT REPLACE ON ersetzt Zeilen, wenn sie einer benutzerdefinierten Bedingung entsprechen.
Siehe INSERT in der Referenz zur SQL-Sprache und Daten selektiv mit Delta Lake überschreiben.
Native E/A für LokiFileSystem.getFileStatus auf S3 verwenden
LokiFileSystem.getFileStatus verwendet nun den nativen E/A-Stapel für Amazon S3-Datenverkehr und gibt org.apache.hadoop.fs.FileStatus Objekte anstelle von shaded.databricks.org.apache.hadoop.fs.s3a.S3AFileStatus.
STANDARDMÄßIG aktivierter ANSI-Modus für Pandas-API auf Spark
ANSI_MODE ist jetzt standardmäßig für die Pandas-API auf Spark compute.ansi_mode_support=True aktiviert, was sicherstellt, dass die ANSI-Compliance-Parität mit nativen Pandas gewährleistet ist. Die compute.fail_on_ansi_mode Option gilt weiterhin, wenn compute.ansi_mode_support auf False gesetzt ist.
Automatisches Laden leitet Partitionsspalten im singleVariantColumn Modus ab
Auto Loader leitet jetzt Partitionsspalten von Dateipfaden ab, wenn Daten als semistrukturierter Variantentyp mithilfe der singleVariantColumn-Option aufgenommen werden. Zuvor wurden Partitionsspalten nicht automatisch erkannt. Weitere Informationen finden Sie unter "Optionen für das automatische Laden".
Verhaltensänderungen
-
DESCRIBE CONNECTIONZeigt Umgebungseinstellungen für JDBC-Verbindungen an. - Option zum Trunkieren der einheitlichen Verlaufsgeschichte während der Migration verwalteter Tabellen
- SQL-Syntax für Delta-Leseoptionen in Streamingabfragen
-
Richtige Ergebnisse mit
splitleerem Regex und positivem Grenzwert -
Beheben
url_decodeundtry_url_decodeFehlerbehandlung in Photon - Freigegebene Ausführungsumgebung für Unity Catalog Python UDTFs
- Zeilenverfolgung ist standardmäßig bei neuen Tabellen aktiviert
- TABLE Argumentunterstützung für Unity Catalog Python UDTFs
DESCRIBE CONNECTION Zeigt Umgebungseinstellungen für JDBC-Verbindungen an.
Azure Databricks enthält jetzt benutzerdefinierte Umgebungseinstellungen im DESCRIBE CONNECTION Output für JDBC-Verbindungen, die benutzerdefinierte Treiber unterstützen und isoliert ausgeführt werden. Andere Verbindungstypen bleiben unverändert.
Option zum Kürzen der einheitlichen Historie während der Migration von verwalteten Tabellen
Sie können jetzt den einheitlichen Verlauf abschneiden, wenn Sie Tabellen mit aktivierter Uniform/Iceberg-Funktion migrieren ALTER TABLE...SET MANAGED. Dies vereinfacht Migrationen und reduziert Ausfallzeiten im Vergleich zum manuellen Deaktivieren und erneuten Aktivieren von Uniform.
SQL-Syntax für Delta-Leseoptionen in Streamingabfragen
Sie können jetzt Delta-Leseoptionen für SQL-basierte Streamingabfragen mithilfe der WITH Klausel angeben. Beispiel:
SELECT * FROM STREAM tbl WITH (SKIPCHANGECOMMITS=true, STARTINGVERSION=X);
Richtige Ergebnisse mit split leerem regex und positivem Grenzwert
Azure Databricks gibt jetzt korrekte Ergebnisse zurück, wenn es mit einem leeren Regex und einem positiven Grenzwert split function verwendet wird. Zuvor hat die Funktion die verbleibende Zeichenfolge falsch abgeschnitten, anstatt sie in das letzte Element einzubinden.
Die Behebung der url_decode und try_url_decode Fehlerbehandlung in Photon
In Photon geben try_url_decode() und url_decode() mit failOnError = false jetzt NULL für ungültige URL-codierten Zeichenfolgen anstatt die Abfrage zu fehlschlagen.
Freigegebene Ausführungsumgebung für Unity Catalog Python UDTFs
Azure Databricks teilt nun die Ausführungsumgebung für benutzerdefinierte Python-Tabellenfunktionen (UDTFs) aus derselben Besitzer- und Spark-Sitzung. Eine optionale STRICT ISOLATION Klausel ist verfügbar, um die gemeinsame Nutzung für UDTFs mit Nebeneffekten zu deaktivieren, z. B. das Ändern von Umgebungsvariablen oder das Ausführen von beliebigem Code.
Zeilenverfolgung für neue Tabellen standardmäßig aktiviert
Azure Databricks ermöglicht jetzt die Zeilennachverfolgung standardmäßig für alle neu erstellten verwalteten Unity-Katalogtabellen. Vorhandene Tabellen sind nicht betroffen und behalten ihre aktuellen Zeilenverfolgungseinstellungen bei.
TABLE Argumentunterstützung für Unity Catalog Python UDTFs
Unity Catalog Python UDTFs unterstützen TABLE Argumente, sodass Funktionen ganze Tabellen als Eingabeparameter akzeptieren können, was komplexere Datentransformationen und Aggregationen für strukturierte Datasets ermöglicht. Siehe Python benutzerdefinierte Tabellenfunktionen (UDTFs) im Unity-Katalog. (Zurückportiert von 17.3 LTS).
Verbesserungen der Bibliothek
Aktualisierte Python-Bibliotheken:
In dieser Version wurden keine Python-Bibliotheken aktualisiert.
Aktualisierte R-Bibliotheken:
In dieser Version wurden keine R-Bibliotheken aktualisiert.
Aktualisierte Java-Bibliotheken:
- Aktualisierung von io.delta.delta-sharing-client_2.13 von 1.3.3 auf 1.3.5
Apache Spark
Databricks Runtime 17.2 umfasst Apache Spark 4.0.0. Diese Version enthält alle Spark Fixes und Verbesserungen, die in der vorherigen Version enthalten sind, sowie die folgenden:
-
SPARK-53183 Verwenden von Java
Files.readStringanstelle vono.a.s.sql.catalyst.util.fileToString - SPARK-51817 Führen Sie ansiConfig-Felder in den messageParameters von CAST_INVALID_INPUT und CAST_OVERFLOW wieder ein
- SPARK-53124 Nicht benötigte Felder aus JsonTuple löschen
- SPARK-53106 Hinzufügen von Schemaentwicklungstests für TWS Scala Spark Connect-Suites
-
SPARK-53201 Anstelle
SparkFileUtils.contentEqualsvonFiles.equal - SPARK-53308 Entfernen Sie in RemoveRedundantAliases keine Aliase, die Duplikate verursachen würden.
-
SPARK-53241 Unterstützung
createArrayinSparkCollectionUtils -
SPARK-53239 Verbessern die
MapSortundSortArrayLeistung durchparallelSort - SPARK-53184 Behebt melt(), wenn Wertspalten Zeichenfolgen und Zahlen vermischen.
- SPARK-53144 Den Befehl "CreateViewCommand" im "SparkConnectPlanner" ohne Seiteneffekte gestalten.
- SPARK-53303 Verwenden des leeren Zustands-Encoders, wenn der anfangszustand in TWS nicht bereitgestellt wird
- SPARK-52917 Unterstützung des Lesens zur Aktivierung von Round-Trips für Binärdaten im XML-Format
- SPARK-53110 Implementieren der time_trunc-Funktion in PySpark
- SPARK-53107 Implementieren der time_trunc-Funktion in Scala
- SPARK-52146 Erkennen von zyklischen Funktionsverweisen in SQL UDFs
- SPARK-52469 Verwenden der JEP 223-API zum Verarbeiten der Java-Version
- SPARK-53094 Korrigiere CUBE mit Aggregat, das HAVING Klauseln enthält
- SPARK-51874 TypedConfigBuilder für Scala Enumeration hinzufügen
- SPARK-53287 Hinzufügen eines ANSI-Migrationshandbuchs
- SPARK-43100 Push-basierte Shuffle-Metriken müssen ordnungsgemäß deserialisiert werden
- SPARK-53045 DESCRIBE EXTENDED sollte robust für beschädigte Metadaten sein
-
SPARK-53114 Unterstützung
joininJavaUtils - SPARK-53297 Fix StreamingTable Declarative Pipelines API docstring
- SPARK-53181 Aktivieren von Dokumenttests unter ANSI
- SPARK-52482 Verbessern der Ausnahmebehandlung beim Lesen bestimmter beschädigter zstd-Dateien
-
SPARK-52990 Unterstützen
StringSubstitutor - SPARK-51874 TypedConfigBuilder für Scala Enumeration hinzufügen
-
SPARK-53169 Entfernen von Kommentaren im Zusammenhang mit "
Set the logger level of File Appender to" auslog4j2.properties -
SPARK-53080 Unterstützung
cleanDirectoryinSparkFileUtilsundJavaUtils - SPARK-53045 DESCRIBE EXTENDED sollte robust für beschädigte Metadaten sein
-
SPARK-53000
StringUtils.scalaStringConcat.scalaIn Modul umbenennensql/api - SPARK-52952 PySpark UDF Type Coercion Dev Script hinzufügen
- SPARK-52998 Mehrere Variablen innerhalb der Deklaration
- SPARK-51817 Führen Sie die ansiConfig-Felder in den messageParameters von CAST_INVALID_INPUT und CAST_OVERFLOW wieder ein.
- SPARK-52820 Aufzeichnen vollständiger Pläne in Gold-Dateien
- SPARK-53274 Unterstützung für Left-and-Right-Join-Pushdown in JDBCScanBuilder
- SPARK-52110 Implementieren der SQL-Syntaxunterstützung für Pipelines
- SPARK-52950 Aktivieren des ANSI-Modus in DataSourceV2StrategySuite
- SPARK-52947 Korrigieren des Bildpfads in der Programmieranleitung für deklarative Pipelines
- SPARK-52592 Unterstützung für das Erstellen einer ps.Series aus einer ps.Series
- SPARK-53301 Unterschiedliche Typ-Hinweise von Pandas-UDF und Arrow-UDF
- SPARK-53146 MergeIntoTable im SparkConnectPlanner nebenwirkungsfrei machen
-
SPARK-53166 Verwenden
SparkExitCode.EXIT_FAILUREimSparkPipelinesObjekt - SPARK-53288 Beheben von Assertionsfehlern mit globaler Streaminggrenze
- SPARK-52394 Behebung des Autocorr-Divisions-durch-Null-Fehlers im ANSI-Modus
- SPARK-51555 Hinzufügen der funktion time_diff()
- SPARK-52948 Aktivieren von test_np_spark_compat_frame unter ANSI
- SPARK-53134 Das Bereinigen von nicht verwendeten ANSI-Importen in Tests
-
SPARK-52593 Vermeidung von CAST_INVALID_INPUT bei
MultiIndex.to_series,Series.dotundDataFrame.dotim ANSI-Modus - SPARK-53291 Behebe die Nullfähigkeit für die Wertspalte
- SPARK-53097 WriteOperationV2 im SparkConnectPlanner ohne Seiteneffekte gestalten
- SPARK-53305 Unterstützung von TimeType in createDataFrame
-
SPARK-52914 Unterstützung
On-Demand Log Loadingfür Rollprotokolle inHistory Server - SPARK-33538 Direkte Übertragung von IN-/NOT-Prädikaten zum Hive-Metastore
-
SPARK-52849 Hinzufügen
stringifyExceptionzuo.a.s.util.Utils -
SPARK-52771 Behebung der Erweiterung des float32-Typs in
truediv/floordiv - SPARK-52502 Übersicht über die Threadanzahl
- SPARK-52788 Fehler beim Konvertieren eines Binärwerts des Typs BinaryType in XML
-
SPARK-53123 Unterstützung
getRootCauseinSparkErrorUtils -
SPARK-53129
SparkShellstandardmäßig importieren undjava.net._verbessern -
SPARK-53061 Unterstützung
copyFileToDirectoryinSparkFileUtils - SPARK-52683 Unterstützung von ExternalCatalog alterTableSchema
-
SPARK-52871 Zusammenführen
o.a.s.sql.catalyst.util.SparkStringUtilsmito.a.s.util.SparkStringUtils - SPARK-52817 Verbesserung der Ausdrucksleistung
- SPARK-52545 Standardisieren sie doppelte Anführungszeichen, um die SQL-Spezifikation zu befolgen
-
SPARK-52711 Behebung der Erweiterung des float32-Typs in
mul/rmulunter ANSI - SPARK-52615 Ersetzen Von File.mkdirs durch Utils.createDirectory
- SPARK-52381 JsonProtocol: Nur Unterklassen von SparkListenerEvent akzeptieren
- SPARK-52613 Wiederherstellen der Ausgabe des vollständigen Stacktraces, wenn eine Ausnahme im HBase/Hive DelegationTokenProvider auftritt
- SPARK-52651 Umgang mit benutzerdefiniertem Typ in geschachteltem Spaltenvektor
- SPARK-52611 Korrigiere SQLConf Version für excludeSubqueryRefsFromRemoveRedundantAliases...
- SPARK-52552 Überspringen der Durchsetzung von CHECK-Bedingungen für Löschungen durch Vektoren
-
SPARK-52587 spark-shell 2.13 Unterstützung
-i-IParameter - SPARK-52492 InMemoryRelation.convertToColumnarIfPossible anpassbar machen
- SPARK-52451 Die WriteOperation im SparkConnectPlanner nebenwirkungsfrei gestalten
- SPARK-53272 Umgestalten der SPJ-Pushdownlogik aus BatchScanExec
-
SPARK-53071 Unterstützung
copyFileinSparkFileUtils - SPARK-51415 Unterstützung des Zeittyps mit make_timestamp()
- SPARK-51554 Hinzufügen der funktion time_trunc()
- SPARK-52426 Unterstützung für die Umleitung von Stdout/stderr zum Protokollierungssystem
- SPARK-51834 Unterstützung der End-to-End-Tabelleneinschränkungsverwaltung
- SPARK-53063 Implementieren und Aufrufen neuer APIs in FileCommitProtocol anstelle der veralteten
- SPARK-52546 überprüft den sparkContext, ob er gestoppt wurde, wenn ein Catch-Codeblock in execute() ausgeführt wird, da andernfalls ein falscher Zustand zurückgegeben wird.
-
SPARK-53023 Entfernen einer Abhängigkeit aus dem
sql/api-Modul - SPARK-52396 Artefakt-Root-Verzeichnis sollte tmpdir verwenden
-
SPARK-53131 Verbesserungen zur standardmäßigen Verbesserung von
SparkShell, umjava.nio.file._zu importieren - SPARK-42322 Namen zuweisen to_LEGACY_ERROR_TEMP_2235
- SPARK-51834 Unterstützung der Verwaltung von Tabelleneinschränkungen von Anfang bis Ende
- SPARK-52484 Kind.supportsColumnar Überprüfung auf der Treiberseite in ColumnarToRowExec überspringen
- SPARK-52384 Fehlerbehebung: Connect sollte bei JDBC-Optionen nicht auf Groß- und Kleinschreibung achten
- SPARK-52034 Allgemeine Methoden im SparkOperation-Trait für Thriftserver-Operationen hinzufügen
-
SPARK-53031 Unterstützung
getFileinSparkFileUtils - SPARK-52976 Problem beheben, dass Python-UDF collatierte Zeichenfolgen nicht als Eingabeparameter/Rückgabetyp akzeptieren (17.x)
- SPARK-52943 Aktivierung von arrow_cast für alle Pandas-UDF-Auswertungstypen
- SPARK-53263 Unterstützung von TimeType in df.toArrow
- SPARK-53141 Hinzufügen von APIs zum Abrufen der Arbeitsspeichergröße und offheap-Speichergröße aus dem Ressourcenprofil
- SPARK-53259 Korrigieren der Nachricht für INVALID_UDF_EVAL_TYPE
- SPARK-53167 Spark launcher isRemote respektiert auch die Eigenschaftendatei
-
SPARK-53165 Hinzufügen
SparkExitCode.CLASS_NOT_FOUND - SPARK-53171 Verbesserung der UTF8String-Wiederholungsfunktion
-
SPARK-53170 Verbessern
SparkUserAppException, damit dascause-Parameter verfügbar ist. - SPARK-52989 Hinzufügen einer expliziten Close()-API zu Statusspeicher-Iteratoren
- SPARK-53074 Vermeiden Sie partielles Clustering in SPJ, um die erforderliche Verteilung eines Kind-Elements zu erfüllen.
- SPARK-52252 ScalaUDF-Encoder in Unterabfragen sollten aufgelöst werden
- SPARK-53244 Speichern Sie während der Ansichtserstellung keine Konfigurationen, die den Dual-Run-Modus und den vorläufig aktivierten Modus beinhalten.
- SPARK-53192 Speichern Sie eine Datenquelle im Spark Connect-Plancache immer.
- SPARK-51813 Hinzufügen eines nicht nullierbaren DefaultCachedBatchKryoSerializers, um die Nullverteilung in DefaultCachedBatch serde zu vermeiden
- SPARK-52904 Reapply "[SC-202233][python] Enable convertToArrowArrayS...
-
SPARK-53253 Korrektur der Registrierung von UDF vom Typ
SQL_SCALAR_ARROW_ITER_UDF - SPARK-53243 Auflisten der unterstützten Auswertungstypen in Arrow-Knoten
-
SPARK-53130 Beheben
toJsondes Verhaltens von sortierten Zeichenfolgentypen -
SPARK-53003 Unterstützung
stripinSparkStringUtils - SPARK-51902 Synchronisation des OSS: Erzwingen der Check-Beschränkung bei der Tabelleneinfügung
- SPARK-52047 PySparkValueError für nicht unterstützte Zeichnungstypen auslösen
-
SPARK-53004 Support
abbreviateinSparkStringUtils - SPARK-53066 Verbessern der EXPLAIN Ausgabe für DSv2 Join Pushdown
- SPARK-30848 ProductHash aus TreeNode entfernen
-
SPARK-53046 Verwenden von Java
readAllBytesanstelle vonIOUtils.toByteArray -
SPARK-53206 Anstelle
SparkFileUtils.movevoncom.google.common.io.Files.move - SPARK-53066 Verbesserung der EXPLAIN Ausgabe für DSv2 Join-Pushdown
- SPARK-53069 Korrigieren falscher Zustandsspeichermetriken mit virtuellen Spaltenfamilien
- SPARK-52904 ConvertToArrowArraySafely standardmäßig aktivieren [17.x]
- SPARK-52821 Hinzufügen von int-DecimalType> pyspark udf Rückgabetyp-Zwang
-
SPARK-51562 Funktion hinzufügen
time - SPARK-52971 Beschränken der Größe der Python-Worker-Warteschlange im Ruhezustand
-
SPARK-53057 Unterstützung
sizeOfinSparkFileUtilsundJavaUtils - SPARK-53040 Verbieten von Selbstreferenzen innerhalb der obersten CTEs in Rekursiven CTEs
- SPARK-53104 Führen Sie ansi_mode_context ein, um mehrere Konfigurationsprüfungen pro API-Aufruf zu vermeiden.
-
SPARK-47547 Hinzufügen von
BloomFilterV2 und Verwenden als Standard -
SPARK-53098
DeduplicateRelationssollte Ausdrücke nicht neu zuordnen, wenn der alteExprIdnoch in der Ausgabe vorhanden ist. -
SPARK-53049 Unterstützung
toStringinSparkStreamUtils -
SPARK-53062 Support
deleteQuietlyinSparkFileUtilsundJavaUtils -
SPARK-53070 Unterstützung
is(Not)?EmptyinSparkCollectionUtils - SPARK-53020 JPMS Args sollten auch auf Nicht-SparkSubmit Prozess angewendet werden.
- SPARK-52968 Zusätzliche Statusspeichermetriken ausgeben
- SPARK-52975 Vereinfachen von Feldnamen in Pushdown Join SQL
- SPARK-52926 Hinzufügen eines SQL-Metrics für die Dauer des Abrufs von Remoteschemata.
- SPARK-53059 Arrow UDF muss nicht von Pandas abhängen
-
SPARK-52646 Vermeiden von CAST_INVALID_INPUT im
__eq__ANSI-Modus -
SPARK-52622 Vermeiden von CAST_INVALID_INPUT im
DataFrame.meltANSI-Modus - SPARK-52985 Raise TypeError für Pandas numpy operand in Vergleichsoperatoren
- SPARK-52580 Vermeidung von CAST_INVALID_INPUT im ANSI-Modus
- SPARK-52549 Rekursive CTE-Selbstverweise aus Fensterfunktionen und innerhalb von Sortierungen deaktivieren
-
SPARK-52895 Fügen Sie keine doppelten Elemente hinzu
resolveExprsWithAggregate - SPARK-50748 Behebung eines Race-Condition-Problems, das auftritt, wenn Vorgänge unterbrochen werden
- SPARK-52737 Pushdown-Prädikat und Anzahl von Apps zu FsHistoryProvider beim Auflisten von Anwendungen
- SPARK-53018 ArrowStreamArrowUDFSerializer sollte das Argument "arrow_cast" respektieren.
- SPARK-53013 Fix Pfeiloptimierter Python UDTF, der keine Zeilen bei lateraler Verknüpfung zurückgibt
- SPARK-51834 Synchronisierung von OSS: Unterstützung beim Hinzufügen oder Entfernen von End-to-End-Tabellenbeschränkungen
- SPARK-52921 Angabe der Ausgabeteilung für UnionExec, um dieselbe Ausgabeteilung wie die Kinderoperatoren zu ermöglichen.
- SPARK-52908 Verhindern, dass der Name der Iteratorvariablen mit Namen von Labels im Pfad zur Wurzel des AST kollidiert
- SPARK-52954 Unterstützung von Arrow UDFs für Rückgabetypenkoerzierung
- SPARK-52925 Korrekte Fehlermeldung für Verankerungs-Selbstverweise in rCTEs zurückgeben
- SPARK-52889 Implementieren der current_time-Funktion in PySpark
- SPARK-52675 Unterbrechen hängender ML-Handler in Tests
- SPARK-52959 Unterstützung von UDT in Arrow-optimierten Python UDTF
- SPARK-52962 BroadcastExchangeExec sollte keine Metriken zurücksetzen
- SPARK-52956 Beibehalten von Aliasmetadaten beim Zusammenfassen von Projekten
- SPARK-52890 Implementieren der funktionen to_time und try_to_time in PySpark
- SPARK-52888 Implementieren der make_time-Funktion in PySpark
- SPARK-52892 Unterstützung der TIME-Funktion für Stunde, Minute und Sekunde in PySpark
- SPARK-52837 Unterstützung von TimeType in pyspark
- SPARK-52023 Beheben von Datenbeschädigungen/Segfault-Rückgabeoption[Produkt] von udaf
- SPARK-52955 Ändern der Rückgabetypen von WindowResolution.resolveOrder und WindowResolution.resolveFrame in WindowExpression
- SPARK-52166 Hinzufügen von Unterstützung für PipelineEvents
- SPARK-51834 Fix: Entferne "valid" aus toDDL
- SPARK-52735 Beheben fehlender Fehlerbedingungen für SQL UDFs
- SPARK-51834 Synchronisation des OSS-Supports für End-to-End-Erstellung/Ersetzung von Tabellen mit Einschränkungen
- SPARK-51834 Synchronisieren des OSS-Updates "ResolvedIdentifier" nicht angewendete Aufrufe
- SPARK-52929 Unterstützung des MySQL- und SQLServer-Connectors für DSv2-Join-Pushdown
- SPARK-52448 Vereinfachten Strukturausdruck "Literal" hinzufügen
- SPARK-52882 Implementieren der current_time-Funktion in Scala
- SPARK-52905 Pfeil-UDF für Fenster
-
SPARK-52876 Korrigieren eines Tippfehlers von
bufferaufbodyinChunkFetchSuccess.toString - SPARK-52883 Implementieren der funktionen to_time und try_to_time in Scala
-
SPARK-52751 Spaltennamen nicht vorschnell in
dataframe['col_name']überprüfen - SPARK-52791 Beheben eines Fehlers beim Ableiten eines UDT mit einem null ersten Element
-
SPARK-52686
Unionsollte nur aufgelöst werden, wenn keine Duplikate vorhanden sind - SPARK-52881 Implementieren der make_time-Funktion in Scala
- SPARK-52919 Korrektur des DSv2 Join-Pushdowns zur Verwendung von zuvor aliasten Spalten
-
SPARK-52866 Hinzufügen von Support für
try_to_date - SPARK-52846 Fügen Sie eine Metrik in JDBCRDD hinzu, die misst, wie lange es dauert, das Resultset abzurufen.
- SPARK-52859 SparkSystemUtils-Eigenschaft hinzufügen
- SPARK-52823 Unterstützung für DSv2-Join-Pushdown für Oracle-Connector
- SPARK-52165 Einrichten des Buildgerüsts für das Pipelineprojekt
- SPARK-52869 Hinzufügen der FrameLessOffsetWindowFunction-Validierung zur validateResolvedWindowExpression für die Wiederverwendung im Einzel-Durchlauf-Analysator
- SPARK-52885 Implementieren der Funktionen "Stunde", "Minute" und "Sekunde" in Scala für den TIME-Typ
- SPARK-52903 Kürzen von Aliasen, die nicht in oberster Ebene sind, vor der LCA-Auflösung
- SPARK-52832 Behebung der JDBC-Dialektbezeichnerquotierung
-
SPARK-52870 Variablennamen in Anführungszeichen in der Anweisung
FORsetzen -
SPARK-52859 Eigenschaft hinzufügen
SparkSystemUtils -
SPARK-52900 Verwenden
SparkStringUtils.stringToSeqinFsHistoryProvider - SPARK-52809 Halten Sie keine Reader- und Iterator-Referenzen für alle Partitionen in Task-Completion-Listenern für die Aktualisierung der Metriken.
-
SPARK-52815 Verbessern
SparkClassUtilszur UnterstützunggetAllInterfaces - SPARK-52795 Einschließen von runId in Zustandsspeicherprotokolle
- SPARK-52779 Unterstützung des TimeType-Literals in Connect
- SPARK-52899 Reparatur des QueryExecutionErrorsSuite-Tests, um die H2Dialect erneut zu registrieren.
-
SPARK-52862 Korrigieren der Nullbarkeitsprüfung von
Decimal('NaN') - SPARK-52214 Pfeil-UDF für Aggregation
- SPARK-52787 Neuorganisieren der Streamingausführung um Laufzeit- und Prüfpunktbereiche
- SPARK-51564 TIME-Analyse im 12-Stunden-Format
-
SPARK-52859 Eigenschaft hinzufügen
SparkSystemUtils -
SPARK-51562 Funktion hinzufügen
time - SPARK-52850 Aufrufen von Konvertierungen überspringen, wenn identitätsfunktion
- SPARK-52863 Codepfade für ältere Pandas-Versionen bereinigen
- SPARK-52516 Speichern Sie den vorherigen Iteratorverweis nicht, nachdem Sie zur nächsten Datei in "ParquetPartitionReaderFactory" wechseln.
-
SPARK-52848 Vermeiden von Umwandlung in
DoubleUmwandlungSZEIT/ZEITSTEMPEL in DEZIMAL -
SPARK-52770 Unterstützung
TIMETyp in Verbindung Proto - SPARK-52842 Neue Funktionen und Bugfixes für single-pass-Analyzer
- SPARK-52620 Unterstützung der Umwandlung von TIME nach DECIMAL
- SPARK-52783 Refaktorisieren der Validierungslogik der Fensterfunktion von CheckAnalysis zur Wiederverwendung im Single-Pass-Analyzer
- SPARK-51695 Synchronisiere OSS zum Erstellen/Ersetzen/Ändern von Tabellen für eindeutige Einschränkungen über DSv2
- SPARK-51695 Synchronisierung der OSS-Drop-Beschränkung via DSv2
- SPARK-52824 CheckpointFileManager-Fehlerklassifizierung
- SPARK-52829 Korrigieren von LocalDataToArrowConversion.convert um leere Zeilen ordnungsgemäß zu behandeln.
- SPARK-52811 Optimieren der ArrowTableToRowsConversion.convert zur Verbesserung der Leistung
- SPARK-52796 Optimierung von LocalDataToArrowConversion.convert zur Leistungssteigerung
- SPARK-51695 Synchronisieren der Parseränderungen für 'Alter Table Add Constraint' in OSS
- SPARK-52619 Cast TimeType zu IntegralType
- SPARK-52187 Einführung von Join-Pushdown für DSv2
- SPARK-52782 Zurückgeben von NULL von +/- am Datumszeitpunkt mit NULL
- SPARK-51695 Einführung von Parseränderungen für Tabelleneinschränkungen (CHECK, PK, FK)
-
SPARK-52808
spark.history.retainedApplicationssollte positiv sein - SPARK-52776 Teilen Sie das Comm-Feld nicht in ProcfsMetricsGetter
-
SPARK-52793 Support
isUnixuntero.a.s.util.Utils -
SPARK-52792 Entfernen
commons-lang3der Abhängigkeit vonnetwork-common -
SPARK-52797 Statt
Utils.isWindowszu verwenden, erneut auszuwerten inPythonWorkerFactory - SPARK-52784 TimeZoneAware-Casting in WindowFrameTypeCoercion.createBoundaryCast hinzufügen
- SPARK-52725 Verzögern der Initialisierung des Ressourcenprofil-Managers bis zum Laden des Plug-Ins
- SPARK-52565 Erzwingen der Reihenfolgenauflösung vor anderen Sortierausdrücken
- SPARK-52740 Behebung des NPE in HDFSBackedStateStoreProvider beim Zugriff auf StateStoreConf.sqlConf, wenn die Version des Prüfpunktformats >=2 ist.
- SPARK-52673 Hinzufügen der Grpc RetryInfo-Behandlung zu Spark Connect-Wiederholungsrichtlinien
- SPARK-52724 Verbesserung der OOM-Fehlerbehandlung bei Broadcast Joins mit SHUFFLE_MERGE-Hint-Unterstützung
- SPARK-52781 Behebung des Tippfehlers "dtyeps" in internal.py
- SPARK-52730 Speichern zugrunde liegender Treiber und Datenbankversion in JDBCRDD
- SPARK-52727 Umgestalten der Fensterauflösung, um sie im Single Pass Analyzer wiederzuverwenden
- SPARK-52695 Unterstützung für benutzerdefinierten Typschreibzugriff für xml-Dateiformate
- SPARK-52722 Deprecate JdbcRDD-Klasse
- SPARK-51695 Einführung von Parseränderungen für Tabelleneinschränkungen (CHECK, PK, FK)
- SPARK-52763 SupportZEIT subtrahieren
- SPARK-52768 Korrigieren des Tippfehlers "moveing" in pandas/series.py
- SPARK-52730 Speichern zugrunde liegender Treiber und Datenbankversion in JDBCRDD
-
SPARK-52694 API hinzufügen
o.a.s.sql.Encoders#udt -
SPARK-52720 Behebung der float32 Typenerweiterung in
add/raddunter ANSI - SPARK-52723 Serverseitige Spaltennamenüberprüfung
-
SPARK-52760 Behebung der float32-Typverbreiterung in
sub/rsubgemäß ANSI -
SPARK-52738 Unterstützung bei der Aggregation des TIME-Typs mit einem UDAF, wenn der zugrunde liegende Puffer ein
UnsafeRowist. - SPARK-52704 Vereinfachen der Interoperabilität zwischen SQLConf- und Dateiformatoptionen in TextBasedFileFormats
- SPARK-52706 Beheben von Inkonsistenzen und Umgestalten von Grundtypen in Parser
-
SPARK-52718 Korrigieren der Erweiterung des float32-Typs in
rmod/modnach ANSI-Standards - SPARK-52736 Tippfehler 'moveing' in pyspark/pandas/generic.py korrigieren
Azure Databricks ODBC/JDBC-TREIBERunterstützung
Databricks unterstützt ODBC-/JDBC-Treiber, die in den letzten 2 Jahren veröffentlicht wurden. Laden Sie die kürzlich veröffentlichten Treiber und Upgrades herunter (ODBC herunterladen, JDBC herunterladen).
Systemumgebung
- Betriebssystem: Ubuntu 24.04.3 LTS
- Java: Zulu17.58+21-CA
- Skala: 2.13.16
- Python: 3.12.3
- R: 4.4.2
- Delta Lake: 4.0.0
Installierte Python-Bibliotheken
| Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
|---|---|---|---|---|---|
| annotated-types | 0.7.0 | anyio | 4.6.2 | argon2-cffi | 21.3.0 |
| argon2-cffi-bindings | 21.2.0 | Pfeil | 1.3.0 | asttokens | 2.0.5 |
| astunparse | 1.6.3 | async-lru | 2.0.4 | Attrs | 24.3.0 |
| autocommand | 2.2.2 | azure-common | 1.1.28 | Azure Core | 1.34.0 |
| Azure-Identity | 1.20.0 | azure-mgmt-core | 1.5.0 | azure-mgmt-web | 8.0.0 |
| azure-storage-blob | 12.23.0 | Azure-Speicher-Datei-Datensee | 12.17.0 | babel | 2.16.0 |
| backports.tarfile | 1.2.0 | beautifulsoup4 | 4.12.3 | schwarz | 24.10.0 |
| Bleichmittel | 6.2.0 | Blinker | 1.7.0 | boto3 | 1.36.2 |
| Botocore | 1.36.3 | CacheWerkzeuge | 5.5.1 | Zertifikat | 2025.1.31 |
| cffi | 1.17.1 | Chardet | 4.0.0 | Charset-Normalizer | 3.3.2 |
| klicken | 8.1.7 | cloudpickle | 3.0.0 | Kommunikation | 0.2.1 |
| Contourpy | 1.3.1 | Kryptographie | 43.0.3 | Fahrradfahrer | 0.11.0 |
| Cython | 3.0.12 | Databricks-SDK | 0.49.0 | dbus-python | 1.3.2 |
| debugpy | 1.8.11 | Dekorateur | 5.1.1 | defusedxml | 0.7.1 |
| Deprecated | 1.2.13 | Distlib | 0.3.9 | Docstring zu Markdown | 0.11 |
| ausführen | 0.8.3 | Übersicht der Facetten | 1.1.1 | fastapi | 0.115.12 |
| fastjsonschema | 2.21.1 | Dateisperrung | 3.18.0 | fonttools | 4.55.3 |
| fqdn | 1.5.1 | fsspec | 2023.5.0 | gitdb | 4.0.11 |
| GitPython | 3.1.43 | google-api-core | 2.20.0 | google-auth | 2.40.0 |
| Google Cloud Core | 2.4.3 | Google Cloud-Speicher | 3.1.0 | google-crc32c | 1.7.1 |
| google-resumable-media | 2.7.2 | googleapis-common-protos | 1.65.0 | GRPCIO | 1.67.0 |
| grpcio-status | 1.67.0 | h11 | 0.14.0 | httpcore | 1.0.2 |
| httplib2 | 0.20.4 | httpx | 0.27.0 | idna | 3.7 |
| importlib-metadata | 6.6.0 | importlib_resources | 6.4.0 | inflect | 7.3.1 |
| iniconfig | 1.1.1 | ipyflow-core | 0.0.209 | ipykernel | 6.29.5 |
| ipython | 8.30.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.8.1 |
| isodate | 0.6.1 | isoduration | 20.11.0 | jaraco.context | 5.3.0 |
| jaraco.functools | 4.0.1 | jaraco.text | 3.12.1 | Jedi | 0.19.2 |
| Jinja2 | 3.1.5 | jmespath | 1.0.1 | joblib | 1.4.2 |
| json5 | 0.9.25 | jsonpointer | 3.0.0 | jsonschema | 4.23.0 |
| jsonschema-Spezifikationen | 2023.7.1 | Jupyter-Ereignisse | 0.10.0 | jupyter-lsp | 2.2.0 |
| jupyter_client | 8.6.3 | jupyter_core | 5.7.2 | jupyter_server | 2.14.1 |
| jupyter_server_terminals | 0.4.4 | jupyterlab | 4.3.4 | jupyterlab-pygments | 0.1.2 |
| jupyterlab-widgets | 1.0.0 | jupyterlab_server | 2.27.3 | kiwisolver | 1.4.8 |
| launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 | lazr.uri | 1.0.6 |
| markdown-it-py | 2.2.0 | MarkupSafe | 3.0.2 | matplotlib | 3.10.0 |
| matplotlib-inline | 0.1.7 | mccabe | 0.7.0 | mdurl | 0.1.0 |
| mistune | 2.0.4 | mlflow-skinny | 3.0.1 | mmh3 | 5.1.0 |
| more-itertools | 10.3.0 | msal | 1.32.3 | msal-extensions | 1.3.1 |
| mypy-Erweiterungen | 1.0.0 | nbclient | 0.8.0 | nbconvert | 7.16.4 |
| nbformat | 5.10.4 | nest-asyncio | 1.6.0 | nodeenv | 1.9.1 |
| Notebook | 7.3.2 | Notebook-Shim | 0.2.3 | numpy | 2.1.3 |
| oauthlib | 3.2.2 | opentelemetry-api | 1.32.1 | opentelemetry-sdk | 1.32.1 |
| opentelemetry-semantic-conventions (opentelemetrie-semantische-Konventionen) | 0.53b1 | Überschreibt | 7.4.0 | Verpackung | 24,2 |
| Pandas | 2.2.3 | Pandocfilter | 1.5.0 | Parso | 0.8.4 |
| pathspec | 0.10.3 | patsy | 1.0.1 | pexpect | 4.8.0 |
| Kissen | 11.1.0 | pip | 25.0.1 | platformdirs | 3.10.0 |
| plotly | 5.24.1 | plugin-fähig | 1.5.0 | prometheus_client | 0.21.0 |
| Prompt-Toolkit | 3.0.43 | proto-plus | 1.26.1 | protobuf | 5.29.4 |
| psutil | 5.9.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
| pure-eval | 0.2.2 | pyarrow | 19.0.1 | Pyasn1 | 0.4.8 |
| Pyasn1-Module | 0.2.8 | pyccolo | 0.0.71 | Pycparser | 2.21 |
| Pydantisch | 2.10.6 | pydantic_core | 2.27.2 | Pyflakes | 3.2.0 |
| Pygments | 2.15.1 | PyGObject | 3.48.2 | pyiceberg | 0.9.0 |
| PyJWT | 2.10.1 | pyodbc | 5.2.0 | pyparsing | 3.2.0 |
| pyright | 1.1.394 | pytest | 8.3.5 | Python-dateutil | 2.9.0.post0 |
| python-json-logger | 3.2.1 | python-lsp-jsonrpc | 1.1.2 | Python-LSP-Server | 1.12.0 |
| pytoolconfig | 1.2.6 | Pytz | 2024.1 | PyYAML | 6.0.2 |
| pyzmq | 26.2.0 | referenzierung | 0.30.2 | requests | 2.32.3 |
| rfc3339-Prüfer | 0.1.4 | rfc3986-validator | 0.1.1 | rich | 13.9.4 |
| Seil | 1.12.0 | rpds-py | 0.22.3 | rsa | 4.9.1 |
| s3transfer | 0.11.3 | scikit-learn | 1.6.1 | SciPy | 1.15.1 |
| Seegeboren | 0.13.2 | Send2Trash | 1.8.2 | setuptools | 74.0.0 |
| Sechs | 1.16.0 | smmap | 5.0.0 | sniffio | 1.3.0 |
| sortierte Container | 2.4.0 | Sieb für Suppe | 2,5 | sqlparse | 0.5.3 |
| ssh-import-id | 5.11 | Stapeldaten | 0.2.0 | Starlet | 0.46.2 |
| StatistikModelle | 0.14.4 | strictyaml | 1.7.3 | Hartnäckigkeit | 9.0.0 |
| terminado | 0.17.1 | Threadpoolctl | 3.5.0 | tinycss2 | 1.4.0 |
| tokenize_rt | 6.1.0 | tomli | 2.0.1 | Tornado | 6.4.2 |
| traitlets | 5.14.3 | Typwächter | 4.3.0 | types-python-dateutil | 2.9.0.20241206 |
| typing_extensions | 4.12.2 | tzdata | 2024.1 | ujson | 5.10.0 |
| unbeaufsichtigte Aktualisierungen | 0,1 | URI-Vorlage | 1.3.0 | urllib3 | 2.3.0 |
| uvicorn | 0.34.2 | virtualenv | 20.29.3 | wadllib | 1.3.6 |
| wcwidth | 0.2.5 | webcolors | 24.11.1 | Webkodierungen | 0.5.1 |
| WebSocket-Client | 1.8.0 | Was ist neu im Patch | 1.0.2 | Rad | 0.45.1 |
| widgetsnbextension | 3.6.6 | Eingehüllt | 1.17.0 | yapf | 0.40.2 |
| zipp | 3.21.0 |
Installierte R-Bibliotheken
R-Bibliotheken werden aus der Posit Package Manager CRAN-Momentaufnahme am 2025-03-20installiert.
| Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
|---|---|---|---|---|---|
| Pfeil | 19.0.1 | Askpass | 1.2.1 | prüfen, dass | 0.2.1 |
| backports | 1.5.0 | Basis | 4.4.2 | base64enc | 0.1-3 |
| bigD | 0.3.0 | bit | 4.6.0 | Bit64 | 4.6.0-1 |
| bitops | 1.0-9 | Klumpen | 1.2.4 | boot | 1.3-30 |
| brew | 1.0-10 | brio | 1.1.5 | Besen | 1.0.7 |
| bslib | 0.9.0 | cachem | 1.1.0 | callr | 3.7.6 |
| Caret | 7.0-1 | CellRanger | 1.1.0 | Chron | 2.3-62 |
| class | 7.3-22 | cli | 3.6.5 | clipr | 0.8.0 |
| clock | 0.7.2 | Gruppe | 2.1.6 | Codetools | 0.2-20 |
| Farbraum | 2.1-1 | Commonmark | 1.9.5 | Kompilierer | 4.4.2 |
| config | 0.3.2 | conflicted | 1.2.0 | cpp11 | 0.5.2 |
| Buntstift | 1.5.3 | Zugangsdaten | 2.0.2 | cURL | 6.4.0 |
| data.table | 1.17.0 | Datensätze | 4.4.2 | DBI | 1.2.3 |
| dbplyr | 2.5.0 | Beschreibung | 1.4.3 | devtools | 2.4.5 |
| Diagramm | 1.6.5 | diffobj | 0.3.5 | verdauen | 0.6.37 |
| downlit | 0.4.4 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
| e1071 | 1.7-16 | Ellipse | 0.3.2 | auswerten | 1.0.3 |
| Fans | 1.0.6 | farver | 2.1.2 | fastmap | 1.2.0 |
| fontawesome | 0.5.3 | forcats | 1.0.0 | foreach | 1.5.2 |
| Fremd | 0.8-86 | schmieden | 0.2.0 | fs | 1.6.5 |
| Zukunft | 1.34.0 | future.apply | 1.11.3 | gargle | 1.5.2 |
| Generika | 0.1.4 | gert | 2.1.4 | ggplot2 | 3.5.1 |
| gh | 1.4.1 | git2r | 0.35.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | globals | 0.18.0 | Klebstoff | 1.8.0 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | gower | 1.0.2 |
| Graphik | 4.4.2 | grGeräte | 4.4.2 | grid | 4.4.2 |
| gridExtra | 2.3 | gsubfn | 0.7 | GT | 0.11.1 |
| g-Tabelle | 0.3.6 | Schutzhelm | 1.4.1 | Hafen | 2.5.4 |
| highr | 0.11 | HMS | 1.1.3 | HTML-Werkzeuge | 0.5.8.1 |
| htmlwidgets | 1.6.4 | httpuv | 1.6.15 | httr | 1.4.7 |
| httr2 | 1.1.1 | Ausweise | 1.0.1 | ini | 0.3.1 |
| IPRED | 0.9-15 | Isobande | 0.2.7 | iterators | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.9.1 | juicyjuice | 0.1.0 |
| KernSmooth | 2.23-22 | Knitr | 1,50 | Etikettierung | 0.4.3 |
| later | 1.4.1 | lattice | 0.22-5 | lava | 1.8.1 |
| Lebenszyklus | 1.0.4 | „listenv“ | 0.9.1 | Schmiermittel | 1.9.4 |
| magrittr | 2.0.3 | markdown | 1.13 | MASS | 7.3-60.0.1 |
| Matrix | 1.6-5 | memoise | 2.0.1 | Methodik | 4.4.2 |
| mgcv | 1.9-1 | Mime-Kunst | 0,13 | miniUI | 0.1.1.1 |
| mlflow | 2.20.4 | ModelMetrics | 1.2.2.2 | Modellierer | 0.1.11 |
| munsell | 0.5.1 | nlme | 3.1-164 | NNET | 7.3-19 |
| numDeriv | 2016.8 bis 1.1 | OpenSSL | 2.3.3 | parallel | 4.4.2 |
| parallel dazu | 1.42.0 | Säule | 1.11.0 | pkgbuild | 1.4.6 |
| pkgconfig | 2.0.3 | pkgdown | 2.1.1 | pkgload | 1.4.0 |
| plogr | 0.2.0 | plyr | 1.8.9 | loben | 1.0.0 |
| prettyunits | 1.2.0 | pROC | 1.18.5 | Prozessx | 3.8.6 |
| prodlim | 2024.06.25 | profvis | 0.4.0 | Fortschritt | 1.2.3 |
| progressr | 0.15.1 | Versprechungen | 1.3.2 | proto | 1.0.0 |
| Stellvertreter | 0.4-27 | P.S. | 1.9.0 | purrr | 1.0.4 |
| R6 | 2.6.1 | ragg | 1.3.3 | randomForest | 4.7-1.2 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.14 | RcppEigen | 0.3.4.0.2 | reaktivierbar | 0.4.4 |
| reactR | 0.6.1 | READR | 2.1.5 | readxl (Softwarepaket zum Lesen von Excel-Dateien) | 1.4.5 |
| Rezepte | 1.2.0 | Rückspiel | 2.0.0 | Rückspiel2 | 2.1.2 |
| fernbedienungen | 2.5.0 | reprex | 2.1.1 | Umform2 | 1.4.4 |
| rlang | 1.1.6 | RMarkdown | 2.29 | RODBC | 1.3-26 |
| roxygen2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
| Rserve | 1.8-15 | RSQLite | 2.3.9 | rstudioapi | 0.17.1 |
| rversions | 2.1.2 | RVEST | 1.0.4 | Sass | 0.4.9 |
| scales | 1.3.0 | selectr | 0.4-2 | Sitzungsinformationen | 1.2.3 |
| Gestalt | 1.4.6.1 | glänzend | 1.10.0 | sourcetools | 0.1.7-1 |
| Sparklyr | 1.9.1 | SparkR | 4.0.0 | sparsevctrs | 0.3.1 |
| spatial | 7.3-17 | splines | 4.4.2 | sqldf | 0.4-11 |
| SQUAREM | 2021.1 | Statistiken | 4.4.2 | Statistiken4 | 4.4.2 |
| Stringi | 1.8.7 | stringr | 1.5.1 | Überleben | 3.5-8 |
| swagger | 5.17.14.1 | sys | 3.4.3 | systemfonts | 1.2.1 |
| tcltk | 4.4.2 | testthat | 3.2.3 | Textgestaltung | 1.0.0 |
| Tibble | 3.3.0 | tidyr | 1.3.1 | tidyselect | 1.2.1 |
| tidyverse | 2.0.0 | Zeitumstellung | 0.3.0 | timeDate | 4041.110 |
| tinytex | 0.56 | Werkzeuge | 4.4.2 | Zeitzonendatenbank (tzdb) | 0.5.0 |
| URL-Prüfer | 1.0.1 | Nutze dies | 3.1.0 | utf8 | 1.2.6 |
| utils | 4.4.2 | Universelle eindeutige Kennung (UUID) | 1.2-1 | V8 | 6.0.2 |
| VCTRS | 0.6.5 | viridisLite | 0.4.2 | vroom | 1.6.5 |
| Waldo | 0.6.1 | whisker | 0.4.1 | Withr | 3.0.2 |
| xfun | 0.51 | xml2 | 1.3.8 | xopen | 1.0.1 |
| xtable | 1.8-4 | YAML-Dateiformat | 2.3.10 | zeallot | 0.1.0 |
| zip | 2.3.2 |
Installierte Java- und Scala-Bibliotheken (Scala 2.13-Clusterversion)
| Gruppen-ID | Artefakt-ID | Version |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon-Kinesis-Client | 1.12.0 |
| com.amazonaws | AWS Java SDK für Auto Scaling | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudsearch (Cloud-Suchdienst) | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | AWS-Java-SDK-Config | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
| com.amazonaws | aws-java-sdk-directory | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk (Java SDK für Elastic Beanstalk von AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (Software Development Kit für Elastic Load Balancing in AWS mit Java) | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder (AWS Java SDK für Elastic Transcoder) | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr | 1.12.638 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue (eine Bibliothek für den Glue-Service von Amazon Web Services) | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.638 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-Protokolle | 1.12.638 |
| com.amazonaws | aws-java-sdk-machinelearning (Maschinelles Lernen) | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ses | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.638 |
| com.amazonaws | aws-java-sdk-sts | 1.12.638 |
| com.amazonaws | aws-java-sdk-Support (Unterstützung für AWS Java SDK) | 1.12.638 |
| com.amazonaws | AWS-Java-SDK-SWF-Bibliotheken | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.clearspring.analytics | Datenstrom | 2.9.8 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.27.0 |
| com.databricks | Jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.13 | 0.4.15-11 |
| com.esotericsoftware | kryo-shaded | 4.0.3 |
| com.esotericsoftware | Minlog | 1.3.0 |
| com.fasterxml | Klassenkamerad | 1.5.1 |
| com.fasterxml.jackson.core | Jackson-Anmerkungen | 2.18.2 |
| com.fasterxml.jackson.core | jackson-core | 2.18.2 |
| com.fasterxml.jackson.core | Jackson-Datenbindung | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.18.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.13 | 2.18.2 |
| com.github.ben-manes.coffein | Koffein | 2.9.3 |
| com.github.blemale | scaffeine_2.13 | 4.1.0 |
| com.github.fommil | Jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1-Einheimische |
| com.github.fommil.netlib | native_system-java | 1.1 |
| com.github.fommil.netlib | native_system-java | 1.1-Einheimische |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-Einheimische |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-Einheimische |
| com.github.luben | zstd-jni | 1.5.6-10 |
| com.github.virtuald | curvesapi | 1.08 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.api.grpc | proto-google-common-protos | 2.5.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.11.0 |
| com.google.crypto.tink | tink | 1.16.0 |
| com.google.errorprone | fehleranfällige Annotationen | 2.36.0 |
| com.google.flatbuffers | flatbuffers-java | 24.3.25 |
| com.google.guava | failureaccess | 1.0.2 |
| com.google.guava | Guave | 33.4.0-jre |
| com.google.guava | hörbareZukunft | 9999.0-empty-to-avoid-conflict-with-guava |
| com.google.j2objc | j2objc-annotations | 3.0.0 |
| com.google.protobuf | protobuf-java | 3.25.5 |
| com.google.protobuf | protobuf-java-util | 3.25.5 |
| com.helger | profiler | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.lihaoyi | sourcecode_2.13 | 0.1.9 |
| com.microsoft.azure | Azure Data Lake Store SDK (Software Development Kit für Azure Data Lake Store) | 2.3.10 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.microsoft.sqlserver | mssql-jdbc | 12.8.0.jre8 |
| com.ning | compress-lzf (Datenkompression mit LZF-Algorithmus) | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | Paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.13 | 0.4.13 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.13 | 0.10.0 |
| com.twitter | util-app_2.13 | 19.8.1 |
| com.twitter | util-core_2.13 | 19.8.1 |
| com.twitter | util-function_2.13 | 19.8.1 |
| com.twitter | util-jvm_2.13 | 19.8.1 |
| com.twitter | util-lint_2.13 | 19.8.1 |
| com.twitter | util-registry_2.13 | 19.8.1 |
| com.twitter | util-stats_2.13 | 19.8.1 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.13 | 3.9.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| com.zaxxer | SparseBitSet | 1.3 |
| commons-cli | commons-cli | 1.9.0 |
| commons-codec | commons-codec | 1.17.2 |
| commons-collections | commons-collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| Commons-Dateihochladen | Commons-Dateihochladen | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.18.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | Luftkompressor | 2.0.2 |
| io.delta | delta-sharing-client_2.13 | 1.3.5 |
| io.dropwizard.metrics | Metrikanmerkung | 4.2.30 |
| io.dropwizard.metrics | metrics-core | 4.2.30 |
| io.dropwizard.metrics | Metrics-Graphit | 4.2.30 |
| io.dropwizard.metrics | metrics-healthchecks | 4.2.30 |
| io.dropwizard.metrics | Metrics-Jetty9 | 4.2.30 |
| io.dropwizard.metrics | Metrics-JMX | 4.2.30 |
| io.dropwizard.metrics | metrics-json | 4.2.30 |
| io.dropwizard.metrics | metrics-jvm | 4.2.30 |
| io.dropwizard.metrics | Metrik-Servlets | 4.2.30 |
| io.github.java-diff-utils | java-diff-utils | 4.15 |
| io.netty | netty-all | 4.1.118.Final |
| io.netty | netty-buffer | 4.1.118.Final |
| io.netty | Netty Codec | 4.1.118.Final |
| io.netty | netty-codec-http | 4.1.118.Final |
| io.netty | netty-codec-http2 | 4.1.118.Final |
| io.netty | netty-codec-socks | 4.1.118.Final |
| io.netty | netty-common | 4.1.118.Final |
| io.netty | netty-handler | 4.1.118.Final |
| io.netty | netty-handler-proxy | 4.1.118.Final |
| io.netty | Netty-Resolver | 4.1.118.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-windows-x86_64 |
| io.netty | netty-tcnative-Klassen | 2.0.70.Final |
| io.netty | netty-transport | 4.1.118.Final |
| io.netty | netty-transport-classes-epoll | 4.1.118.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.118.Final |
| io.netty | netty-transport-native-epoll | 4.1.118.Final |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.118.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.118.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.1.118.Final |
| io.prometheus | simpleclient | 0.16.1-databricks |
| io.prometheus | simpleclient_common | 0.16.1-databricks |
| io.prometheus | simpleclient_dropwizard | 0.16.1-databricks |
| io.prometheus | simpleclient_pushgateway | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel_agent | 0.16.1-databricks |
| io.prometheus.jmx | Sammler | 0.18.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | Aktivierung | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.media | jai_core | jai_core_dummy |
| javax.transaction | jta | 1.1 |
| javax.transaction | Transaktions-API | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.13.0 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | Gurke | 1.5 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.Schneeflocke | snowflake-ingest-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.13.1 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | Ameise | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | ant-launcher | 1.10.11 |
| org.apache.arrow | Pfeilformat | 18.2.0 |
| org.apache.arrow | arrow-memory-core | 18.2.0 |
| org.apache.arrow | Arrow-Memory-Netty | 18.2.0 |
| org.apache.arrow | arrow-memory-netty-buffer-patch | 18.2.0 |
| org.apache.arrow | Pfeil-Vektor | 18.2.0 |
| org.apache.avro | avro | 1.12.0 |
| org.apache.avro | avro-ipc | 1.12.0 |
| org.apache.avro | avro-mapred | 1.12.0 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.27.1 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.17.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | Commons-Text | 1.13.0 |
| org.apache.curator | Kurator-Klient | 5.7.1 |
| org.apache.curator | curator-framework | 5.7.1 |
| org.apache.curator | Rezepte des Kurators | 5.7.1 |
| org.apache.datasketches | datasketches-java | 6.1.1 |
| org.apache.datasketches | datasketches-memory | 3.0.2 |
| org.apache.derby | derby | 10.14.2.0 |
| org.apache.hadoop | Hadoop-Client-Laufzeit | 3.4.1 |
| org.apache.hive | hive-beeline | 2.3.10 |
| org.apache.hive | hive-cli | 2.3.10 |
| org.apache.hive | hive-jdbc | 2.3.10 |
| org.apache.hive | hive-llap-Client | 2.3.10 |
| org.apache.hive | hive-llap-common | 2.3.10 |
| org.apache.hive | hive-serde | 2.3.10 |
| org.apache.hive | hive-shims | 2.3.10 |
| org.apache.hive | hive-storage-api | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.10 |
| org.apache.hive.shims | hive-shims-common | 2.3.10 |
| org.apache.hive.shims | Hive-Shims-Scheduler | 2.3.10 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | ivy | 2.5.3 |
| org.apache.logging.log4j | log4j-1.2-api | 2.24.3 |
| org.apache.logging.log4j | log4j-api | 2.24.3 |
| org.apache.logging.log4j | log4j-core | 2.24.3 |
| org.apache.logging.log4j | log4j-layout-template-json | 2.24.3 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.24.3 |
| org.apache.orc | orc-core | 2.1.1-shaded-protobuf |
| org.apache.orc | ORC-Format | 1.1.0-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 2.1.1-shaded-protobuf |
| org.apache.orc | Orc-Shims | 2.1.1 |
| org.apache.poi | poi | 5.4.1 |
| org.apache.poi | poi-ooxml | 5.4.1 |
| org.apache.poi | poi-ooxml-full | 5.4.1 |
| org.apache.poi | poi-ooxml-lite | 5.4.1 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.16.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.1 |
| org.apache.xbean | xbean-asm9-shaded | 4,26 |
| org.apache.xmlbeans | xmlbeans | 5.3.0 |
| org.apache.yetus | audience-annotations | 0.13.0 |
| org.apache.zookeeper | Tierpfleger | 3.9.3 |
| org.apache.zookeeper | zookeeper-jute | 3.9.3 |
| org.checkerframework | checker-qual | 3.43.0 |
| org.codehaus.janino | Commons-Compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | Jetty-Client | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-continuation | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty-HTTP | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-io | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-jndi | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty-Plus | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty-Proxy | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty-Sicherheit | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty Server | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-servlet | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-servlets | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty-Util | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty-Webanwendung | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-xml | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | WebSocket-API | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | WebSocket-Client | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | WebSocket-Server | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.53.v20231009 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-Ortungssystem | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-neu verpackt | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.41 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.41 |
| org.glassfish.jersey.core | jersey-client | 2.41 |
| org.glassfish.jersey.core | jersey-common | 2.41 |
| org.glassfish.jersey.core | jersey-server | 2.41 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.41 |
| org.hibernate.validator | hibernate-validator | 6.2.5.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | Javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.4.1.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Anmerkungen | 17.0.0 |
| org.jline | jline | 3.27.1-jdk8 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.13 | 4.0.7 |
| org.json4s | json4s-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson_2.13 | 4.0.7 |
| org.json4s | json4s-scalap_2.13 | 4.0.7 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.13 | 2.9.1 |
| org.objenesis | objenesis | 3.3 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 1.2.1 |
| org.rocksdb | rocksdbjni | 9.8.4 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.13 | 2.13.16 |
| org.scala-lang | scala-library_2.13 | 2.13.16 |
| org.scala-lang | scala-reflect_2.13 | 2.13.16 |
| org.scala-lang.modules | scala-collection-compat_2.13 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.13 | 0.9.1 |
| org.scala-lang.modules | scala-parallel-collections_2.13 | 1.2.0 |
| org.scala-lang.modules | scala-parser-combinators_2.13 | 2.4.0 |
| org.scala-lang.modules | scala-xml_2.13 | 2.3.0 |
| org.scala-sbt | Testoberfläche | 1,0 |
| org.scalacheck | scalacheck_2.13 | 1.18.0 |
| org.scalactic | scalactic_2.13 | 3.2.19 |
| org.scalanlp | breeze-macros_2.13 | 2.1.0 |
| org.scalanlp | breeze_2.13 | 2.1.0 |
| org.scalatest | ScalaTest-kompatibel | 3.2.19 |
| org.scalatest | scalatest-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-diagrams_2.13 | 3.2.19 |
| org.scalatest | scalatest-featurespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-flatspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-freespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funsuite_2.13 | 3.2.19 |
| org.scalatest | scalatest-matchers-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-mustmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-propspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-refspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-shouldmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-wordspec_2.13 | 3.2.19 |
| org.scalatest | scalatest_2.13 | 3.2.19 |
| org.slf4j | jcl-over-slf4j | 2.0.16 |
| org.slf4j | jul-to-slf4j | 2.0.16 |
| org.slf4j | slf4j-api | 2.0.16 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.8.0 |
| org.tukaani | xz | 1.10 |
| org.typelevel | algebra_2.13 | 2.8.0 |
| org.typelevel | cats-kernel_2.13 | 2.8.0 |
| org.typelevel | spire-macros_2.13 | 0.18.0 |
| org.typelevel | spire-platform_2.13 | 0.18.0 |
| org.typelevel | spire-util_2.13 | 0.18.0 |
| org.typelevel | spire_2.13 | 0.18.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| Oro | Oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.5.0-linux-x86_64 |
| Stax | stax-api | 1.0.1 |
Tipp
Versionshinweise zu Versionen von Databricks Runtime, die das Ende des Supports (EoS) erreicht haben, finden Sie unter Versionshinweise zum Ende des Supports für Databricks Runtime. Die EoS Databricks-Runtime-Versionen wurden eingestellt und werden möglicherweise nicht aktualisiert.