Databricks Runtime 12.2 LTS

Poniższe informacje o wersji zawierają informacje o środowisku Databricks Runtime 12.2 LTS obsługiwanym przez platformę Apache Spark 3.3.2.

Usługa Databricks opublikowała te obrazy w marcu 2023 roku.

Nowe funkcje i ulepszenia

Ewolucja schematu usługi Delta Lake obsługuje określanie kolumn źródłowych w instrukcjach scalania

Teraz można określić kolumny obecne tylko w tabeli źródłowej w akcjach wstawiania lub aktualizowania instrukcji scalania, gdy ewolucja schematu jest włączona. W środowisku Databricks Runtime 12.1 lub nowszym tylko INSERT * akcje lub UPDATE SET * akcje mogą być używane do ewolucji schematu z scalania. Zobacz Automatyczna ewolucja schematu dla scalania usługi Delta Lake.

Obciążenia przesyłania strumieniowego ze strukturą są obsługiwane w klastrach z trybem dostępu współdzielonego

Teraz możesz użyć przesyłania strumieniowego ze strukturą do interakcji z wykazem aparatu Unity w udostępnionych klastrach. Obowiązują pewne ograniczenia. Zobacz Jakie funkcje przesyłania strumieniowego ze strukturą obsługuje wykaz aparatu Unity?.

Nowe funkcje predykcyjne we/wy

Obsługa photon dla ujścia Foreachbatch jest teraz dostępna. Obciążenia przesyłane strumieniowo ze źródła i scalania z tabelami delty lub zapisu w wielu ujściach mogą teraz korzystać z ujścia rozwiązania Photonized Foreachbatch.

Obsługa aliasów niejawnych kolumn bocznych

Usługa Azure Databricks obsługuje teraz domyślnie niejawne aliasy kolumn bocznych. Teraz możesz ponownie użyć wyrażenia określonego wcześniej na tej samej SELECT liście. Na przykład, biorąc pod uwagę SELECT 1 AS awartość , a + 1 AS ba element in a + 1 można rozpoznać jako wcześniej zdefiniowany 1 AS aelement . Sprawdź rozpoznawanie nazw, aby uzyskać więcej szczegółów w kolejności rozwiązywania problemów. Aby wyłączyć tę funkcję, możesz ustawić wartość spark.sql.lateralColumnAlias.enableImplicitResolutionfalse.

Nowa funkcja forEachBatch

Funkcja Photon jest teraz obsługiwana podczas zapisywania foreachBatch w ujściu danych.

Standardowe opcje Połączenie ion dla federacji zapytań

Teraz możesz użyć ujednoliconego zestawu opcji (hosta, portu, bazy danych, użytkownika, hasła), aby nawiązać połączenie ze źródłami danych obsługiwanymi w federacji zapytań. Port jest opcjonalny i używa domyślnego numeru portu dla każdego źródła danych, chyba że określono.

Rozszerzona biblioteka funkcji SQL na potrzeby zarządzania tablicami

Teraz można usunąć wszystkie elementy NULL z tablicy przy użyciu array_compact. Aby dołączyć elementy do tablicy, użyj array_append.

Nowa funkcja maski do anonimizowania ciągów

Wywołaj funkcję maski, aby anonimizować poufne wartości ciągów.

Typowe warunki błędów zwracają teraz wartości SQLSTATE

Większość warunków błędów, które środowisko Databricks Runtime zawiera teraz udokumentowane wartości SQLSTATE , których można użyć do testowania błędów w standardowy sposób zgodności z programem SQL.

Wywoływanie funkcji generatora w klauzuli FROM

Teraz można wywoływać funkcje generatora wartości tabeli, takie jak eksplodować w klauzuli regularnej FROM zapytania. Spowoduje to wyrównanie wywołania funkcji generatora do innych wbudowanych i zdefiniowanych przez użytkownika funkcji tabeli.

Obsługa buforów protokołu jest ogólnie dostępna

Za pomocą from_protobuf funkcji i to_protobuf można wymieniać dane między typami binarnymi i strukturami. Zobacz Bufory protokołu odczytu i zapisu.

Poprawki błędów

  • Ulepszona spójność zachowania zatwierdzania delty dla pustych transakcji odnoszących się do updatepoleceń , deletei merge . Na WriteSerializable poziomie izolacji polecenia, które powodują, że żadne zmiany nie powodują teraz utworzenia pustego zatwierdzenia. Serializable Na poziomie izolacji takie puste transakcje nie tworzą teraz zatwierdzenia.

Zmiany zachowania

Zmiany zachowania za pomocą nowej funkcji aliasu kolumny bocznej

Nowa funkcja aliasu kolumny bocznej wprowadza zmiany zachowania dla następujących przypadków podczas rozpoznawania nazw:

  • Alias kolumny bocznej ma teraz pierwszeństwo przed skorelowanych odwołań o tej samej nazwie. Na przykład dla tego zapytania element SELECT (SELECT c2 FROM (SELECT 1 AS c1, c1 AS c2) WHERE c2 > 5) FROM VALUES(6) AS t(c1)c1 wewnętrznych c1 AS c2 został rozpoznany jako skorelowane odwołanie t.c1, ale teraz zmienia się na alias kolumny bocznej 1 AS c1. Zapytanie zwraca teraz wartość NULL.
  • Alias kolumny bocznej ma teraz pierwszeństwo przed parametrami funkcji o tej samej nazwie. Na przykład w przypadku funkcji CREATE OR REPLACE TEMPORARY FUNCTION func(x INT) RETURNS TABLE (a INT, b INT, c DOUBLE) RETURN SELECT x + 1 AS x, xelement x w treści funkcji został rozpoznany jako parametr funkcji x, ale zmienia się na alias x + 1 kolumny bocznej w treści funkcji. Zapytanie SELECT * FROM func(1) zwraca teraz wartość 2, 2.
  • Aby wyłączyć funkcję aliasu kolumny bocznej, ustaw wartość spark.sql.lateralColumnAlias.enableImplicitResolutionfalse. Aby uzyskać więcej informacji, zobacz Rozpoznawanie nazw.

Uaktualnienia biblioteki

  • Uaktualnione biblioteki języka Python:
    • filelock z wersji 3.8.2 do 3.9.0
    • joblib z wersji 1.1.0 do 1.1.1
    • platformdirs z wersji 2.6.0 do 2.6.2
    • whatthepatch z 1.0.3 do 1.0.4
  • Uaktualnione biblioteki języka R:
    • klasa z 7.3-20 do 7.3-21
    • codetools od 0.2-18 do 0.2-19
    • MASA z 7.3-58 do 7.3-58.2
    • nlme z 3.1-160 do 3.1-162
    • Rserve od 1.8-11 do 1.8-12
    • SparkR z wersji 3.3.1 do 3.3.2

Zmiany zachowania

  • Użytkownicy muszą teraz mieć SELECT uprawnienia i MODIFY do dowolnego pliku podczas tworzenia schematu ze zdefiniowaną lokalizacją.

Apache Spark

Środowisko Databricks Runtime 12.2 zawiera platformę Apache Spark 3.3.2. Ta wersja zawiera wszystkie poprawki i ulepszenia platformy Spark zawarte w środowisku Databricks Runtime 12.1 (nieobsługiwane), a także następujące dodatkowe poprawki błędów i ulepszenia wprowadzone na platformie Spark:

  • [SPARK-42416] [SC-123205] [SC-122851] [SQL] Operacje zestawu dat nie powinny ponownie rozpoznawać przeanalizowanego planu logicznego
  • [SPARK-41848] Przywróć "[CHERRY-PICK][12.x][12.1][12.0][SC-120037][CORE] Naprawianie zadania nadmiernie zaplanowanego za pomocą elementu TaskResourceProfile"
  • [SPARK-42162] [SC-122711] [ES-556261] Wprowadzenie wyrażenia MultiCommutativeOp jako optymalizacji pamięci w celu kanonicznego określania dużych drzew wyrażeń dojeżdżających do pracy
  • [SPARK-42406] [SC-122998] [PROTOBUF] [Cherry-pick] Naprawianie ustawienia głębokości cyklicznego dla funkcji Protobuf
  • [SPARK-42002] [SC-122476] [CONNECT] [PYTHON] Implementowanie elementu DataFrameWriterV2
  • [SPARK-41716] [SC-122545] [CONNECT] Zmienianie nazwy _catalog_to_pandas na _execute_and_fetch w katalogu
  • [SPARK-41490] [SC-121774] [SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_2441
  • [SPARK-41600] [SC-122538] [SPARK-41623] [SPARK-41612] [CONNECT] Implementowanie elementu Catalog.cacheTable, isCached i uncache
  • [SPARK-42191] [SC-121990] [SQL] Obsługa funkcji udf "luhn_check"
  • [SPARK-42253] [SC-121976] [PYTHON] Dodawanie testu wykrywania zduplikowanej klasy błędów
  • [SPARK-42268] [SC-122251] [CONNECT] [PYTHON] Dodawanie elementu UserDefinedType w protos
  • [SPARK-42231] [SC-121841] [SQL] Przekróć MISSING_STATIC_PARTITION_COLUMN w internalError
  • [SPARK-42136] [SC-122554] Refaktoryzacja obliczenia partycjonowania wyjściowego BroadcastHashJoinExec
  • [SPARK-42158] [SC-121610] [SQL] Integracja _LEGACY_ERROR_TEMP_1003 z usługą FIELD_NOT_FOUND
  • [SPARK-42192] [12.x] [SC-121820] [PYTHON] Migrowanie błędu TypeError z pliku pyspark/sql/dataframe.py do błędu PySparkTypeError
  • [SPARK-35240] Przywróć element "[SC-118242][SS] Użyj elementu CheckpointFileManager ...
  • [SPARK-41488] [SC-121858] [SQL] Przypisz nazwę do _LEGACY_ERROR_TEMP_1176 (i 1177)
  • [SPARK-42232] [SC-122267] [SQL] Zmień nazwę klasy błędu: UNSUPPORTED_FEATURE.JDBC_TRANSACTION
  • [SPARK-42346] [SC-122480] [SQL] Ponowne zapisywanie unikatowych agregacji po scaleniu podzapytania
  • [SPARK-42306] [SC-122539] [SQL] Integracja _LEGACY_ERROR_TEMP_1317 z usługą UNRESOLVED_COLUMN.WITH_SUGGESTION
  • [SPARK-42234] [SC-122354] [SQL] Zmień nazwę klasy błędu: UNSUPPORTED_FEATURE.REPEATED_PIVOT
  • [SPARK-42343] [SC-122437] [CORE] Ignoruj IOException wartość w handleBlockRemovalFailure przypadku zatrzymania elementu SparkContext
  • [SPARK-41295] [SC-122442] [SPARK-41296] [SQL] Zmienianie nazwy klas błędów
  • [SPARK-42320] [SC-122478] [SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_2188
  • [SPARK-42255] [SC-122483] [SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_2430
  • [SPARK-42156] [SC-121851] [CONNECT] Spark Połączenie Client obsługuje teraz usługę RetryPolicies
  • [SPARK-38728] [SC-116723] [SQL] Przetestuj klasę błędów: FAILED_RENAME_PATH
  • [SPARK-40005] [12.X] Przykłady samodzielne w narzędziu PySpark
  • [SPARK-39347] [SC-122457] [SS] Poprawka usterek obliczania przedziału czasu, gdy czas < zdarzenia 0
  • [SPARK-42336] [SC-122458] [CORE] Użyj getOrElse() zamiast w elemecie contains() ResourceAllocator
  • [SPARK-42125] [SC-121827] [CONNECT] [PYTHON] Funkcja UDF biblioteki Pandas w usłudze Spark Połączenie
  • [SPARK-42217] [SC-122263] [SQL] Obsługa niejawnego aliasu kolumny bocznej w zapytaniach za pomocą okna
  • [SPARK-35240] [SC-118242] [SS] Używanie narzędzia CheckpointFileManager do manipulowania plikami punktu kontrolnego
  • [SPARK-42294] [SC-122337] [SQL] Uwzględnij wartości domyślne kolumny w danych wyjściowych DESCRIBE dla tabel w wersji 2
  • [SPARK-41979] Przywróć "Przywróć "[12.x][SC-121190][SQL] Dodaj brakujące kropki dla komunikatów o błędach w klasach błędów.""
  • [SPARK-42286] [SC-122336] [SQL] Powrót do poprzedniej ścieżki kodu codegen dla złożonego expr z funkcją CAST
  • [SPARK-42275] [SC-122249] [CONNECT] [PYTHON] Unikaj używania wbudowanej listy, dyktowania w statycznym wpisywaniu
  • [SPARK-41985] [SC-122172] [SQL] Scentralizowanie większej liczby reguł rozpoznawania kolumn
  • [SPARK-42126] [SC-122330] [PYTHON] [CONNECT] Zaakceptuj zwracany typ w ciągach DDL dla scalarnych funkcji zdefiniowanych przez użytkownika języka Python na platformie Spark Połączenie
  • [SPARK-42197] [SC-122328] [SC-121514] [CONNECT] Ponownie używa inicjowania maszyny wirtualnej JVM i oddzielnych grup konfiguracji do ustawiania w zdalnym trybie lokalnym
  • [SPARK-41575] [SC-120118] [SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_2054
  • [SPARK-41985] Przywróć "[SC-122172][SQL] Scentralizowanie większej liczby reguł rozpoznawania kolumn"
  • [SPARK-42123] [SC-122234] [SC-121453] [SQL] Uwzględnij wartości domyślne kolumny w tabeli DESCRIBE i SHOW CREATE TABLE output
  • [SPARK-41985] [SC-122172] [SQL] Scentralizowanie większej liczby reguł rozpoznawania kolumn
  • [SPARK-42284] [SC-122233] [CONNECT] Przed uruchomieniem testów klienta — SBT upewnij się, że zestaw serwera connect jest skompilowany
  • [SPARK-42239] [SC-121790] [SQL] Integracji MUST_AGGREGATE_CORRELATED_SCALAR_SUBQUERY
  • [SPARK-42278] [SC-122170] [SQL] Obsługa wypychania DS w wersji 2 obsługuje dialekty JDBC kompilowane SortOrder samodzielnie
  • [SPARK-42259] [SC-122168] [SQL] ResolveGroupingAnalytics powinna dbać o środowisko UDAF języka Python
  • [SPARK-41979] Przywróć wartość "[12.x][SC-121190][SQL] Dodaj brakujące kropki dla komunikatów o błędach w klasach błędów.
  • [SPARK-42224] [12.x] [SC-121708] [CONNECT] Migrowanie błędu TypeError do struktury błędów dla funkcji platformy Spark Połączenie
  • [SPARK-41712] [12.x] [SC-121189] [PYTHON] [CONNECT] Migrowanie błędów platformy Spark Połączenie do struktury błędów PySpark.
  • [SPARK-42119] [SC-121913] [SC-121342] [SQL] Dodawanie wbudowanych funkcji wartości tabeli wbudowanych i inline_outer
  • [SPARK-41489] [SC-121713] [SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_2415
  • [SPARK-42082] [12.x] [SC-121163] [SPARK-41598] [PYTHON] [CONNECT] Wprowadzenie błędu PySparkValueError i PySparkTypeError
  • [SPARK-42081] [SC-121723] [SQL] Ulepszanie weryfikacji zmian planu
  • [SPARK-42225] [12.x] [SC-121714] [CONNECT] Dodaj wyjątek Spark Połączenie IllegalArgumentException, aby dokładnie obsłużyć błąd platformy Spark Połączenie.
  • [SPARK-42044] [12.x] [SC-121280] [SQL] Naprawianie nieprawidłowego komunikatu o błędzie dla MUST_AGGREGATE_CORRELATED_SCALAR_SUBQUERY
  • [SPARK-42194] [12.x] [SC-121712] [PS] Zezwalaj na parametr kolumn podczas tworzenia ramki danych z serii.
  • [SPARK-42078] [12.x] [SC-120761] [PYTHON] Migrowanie błędów zgłaszanych przez maszynę JVM do wyjątku PySparkException.
  • [SPARK-42133] [12.x] [SC-121250] Dodawanie podstawowych metod interfejsu API zestawu danych do platformy Spark Połączenie klienta Scala
  • [SPARK-41979] [12.x] [SC-121190] [SQL] Dodaj brakujące kropki dla komunikatów o błędach w klasach błędów.
  • [SPARK-42124] [12.x] [SC-121420] [PYTHON] [CONNECT] Scalar Inline Python UDF inline inline w usłudze Spark Połączenie
  • [SPARK-42051] [SC-121994] [SQL] Obsługa generowania kodu dla funkcji HiveGenericUDF
  • [SPARK-42257] [SC-121948] [CORE] Usuwanie nieużywanego zewnętrznego sortera zmiennej
  • [SPARK-41735] [SC-121771] [SQL] Użyj funkcji MINIMAL zamiast STANDARD dla elementu SparkListenerSQLExecutionEnd
  • [SPARK-42236] [SC-121882] [SQL] Udoskonalić NULLABLE_ARRAY_OR_MAP_ELEMENT
  • [SPARK-42233] [SC-121775] [SQL] Ulepszanie komunikatu o błędzie dla elementu PIVOT_AFTER_GROUP_BY
  • [SPARK-42229] [SC-121856] [CORE] Migrowanie SparkCoreErrors do klas błędów
  • [SPARK-42163] [SC-121839] [SQL] Naprawianie oczyszczania schematu dla indeksu tablicy niezginalnej lub klucza mapy
  • [SPARK-40711] [SC-119990] [SQL] Dodawanie metryk rozmiaru rozlania dla okna
  • [SPARK-42023] [SC-121847] [SPARK-42024] [CONNECT] [PYTHON] Tworzenie createDataFrame przymusu obsługi AtomicType -> StringType
  • [SPARK-42202] [SC-121837] [Połączenie][Test] Ulepszanie logiki zatrzymania serwera testowego E2E
  • [SPARK-41167] [SC-117425] [SQL] Zwiększanie wydajności podobnej do wielu dzięki utworzeniu predykatu drzewa wyrażeń wyważonego
  • [SPARK-41931] [SC-121618] [SQL] Lepszy komunikat o błędzie dla niekompletnej definicji typu złożonego
  • [SPARK-36124] [SC-121339] [SC-110446] [SQL] Obsługa podzapytania z korelacją za pośrednictwem unii
  • [SPARK-42090] [SC-121290] [3.3] Wprowadzenie liczby ponownych prób sasl w retryingBlockTransferor
  • [SPARK-42157] [SC-121264] [CORE] spark.scheduler.mode=FAIR powinien zapewnić harmonogram FAIR
  • [SPARK-41572] [SC-120772] [SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_2149
  • [SPARK-41983] [SC-121224] [SQL] Zmień nazwę i popraw komunikat o błędzie dla elementu NULL_COMPARISON_RESULT
  • [SPARK-41976] [SC-121024] [SQL] Ulepszanie komunikatu o błędzie dla elementu INDEX_NOT_FOUND
  • [SPARK-41994] [SC-121210] [SC-120573] Przypisywanie parametrów SQLSTATE (1/2)
  • [SPARK-41415] [SC-121117] [3.3] Ponowne próby żądań SASL
  • [SPARK-38591] [SC-121018] [SQL] Dodawanie obiektów flatMapSortedGroups i cogroupSorted
  • [SPARK-41975] [SC-120767] [SQL] Ulepszanie komunikatu o błędzie dla elementu INDEX_ALREADY_EXISTS
  • [SPARK-42056] [SC-121158] [SQL] [PROTOBUF] Dodawanie brakujących opcji dla funkcji Protobuf
  • [SPARK-41984] [SC-120769] [SQL] Zmień nazwę i popraw komunikat o błędzie dla elementu RESET_PERMISSION_TO_ORIGINAL
  • [SPARK-41948] [SC-121196] [SQL] Naprawiono serwer NPE dla klas błędów: CANNOT_PARSE_JSON_FIELD
  • [SPARK-41772] [SC-121176] [CONNECT] [PYTHON] Naprawianie nieprawidłowej nazwy kolumny w withFieldnarzędziu doctest
  • [SPARK-41283] [SC-121175] [CONNECT] [PYTHON] Dodaj array_append do Połączenie
  • [SPARK-41960] [SC-120773] [SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_1056
  • [SPARK-42134] [SC-121116] [SQL] Naprawiono polecenie getPartitionFiltersAndDataFilters() w celu obsługi filtrów bez atrybutów, do których odwołuje się odwołanie
  • [SPARK-42096] [SC-121012] [CONNECT] Niektóre oczyszczanie kodu dla modułu connect
  • [SPARK-42099] [SC-121114] [SPARK-41845] [CONNECT] [PYTHON] Naprawianie count(*) i count(col(*))
  • [SPARK-42045] [SC-120958] [SC-120450] [SQL] Tryb SQL ANSI: Round/Bround powinien zwrócić błąd w przepełnieniu liczby całkowitej
  • [SPARK-42043] [SC-120968] [CONNECT] Wynik klienta Scala z testami E2E
  • [SPARK-41884] [SC-121022] [CONNECT] Obsługa naiwnej krotki jako zagnieżdżonego wiersza
  • [SPARK-42112] [SC-121011] [SQL] [SS] Dodawanie sprawdzania wartości null przed ContinuousWriteRDD#compute zamknięciem funkcji dataWriter
  • [SPARK-42077] [SC-120553] [CONNECT] [PYTHON] Literał powinien zgłaszać błąd TypeError dla nieobsługiwanego typu danych
  • [SPARK-42108] [SC-120898] [SQL] Przekształć Count(*) analizatora w Count(1)
  • [SPARK-41666] [SC-120928] [SC-119009] [PYTHON] Obsługa sparametryzowanego kodu SQL przez sql()
  • [SPARK-40599] [SC-120930] [SQL] Zrelaksuj typ reguły multiTransform, aby umożliwić alternatywy dla dowolnego rodzaju seq
  • [SPARK-41574] [SC-120771] [SQL] Zaktualizuj _LEGACY_ERROR_TEMP_2009 jako INTERNAL_ERROR.
  • [SPARK-41579] [SC-120770] [SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_1249
  • [SPARK-41974] [SC-120766] [SQL] Przekróć INCORRECT_END_OFFSET w INTERNAL_ERROR
  • [SPARK-41530] [SC-120916] [SC-118513] [CORE] Zmienianie nazwy medianyHeap na PercentileMap i obsługa percentylu
  • [SPARK-41757] [SC-120608] [SPARK-41901] [CONNECT] Poprawiono reprezentację ciągu dla klasy Column
  • [SPARK-42084] [SC-120775] [SQL] Unikaj wycieku ograniczenia tylko do kwalifikowanego dostępu
  • [SPARK-41973] [SC-120765] [SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_1311
  • [SPARK-42039] [SC-120655] [SQL] SPJ: Usuń opcję w keyGroupedPartitioning#partitionValuesOpt
  • [SPARK-42079] [SC-120712] [CONNECT] [PYTHON] Zmienianie nazwy komunikatów proto dla toDF i withColumnsRenamed
  • [SPARK-42089] [SC-120605] [CONNECT] [PYTHON] Rozwiązywanie problemów z nazwami zmiennych w zagnieżdżonych funkcjach lambda
  • [SPARK-41982] [SC-120604] [SQL] Partycje typu ciąg nie powinny być traktowane jako typy liczbowe
  • [SPARK-40599] [SC-120620] [SQL] Dodawanie metod wieloprzekształtnych do narzędzia TreeNode w celu wygenerowania alternatyw
  • [SPARK-42085] [SC-120556] [CONNECT] [PYTHON] Tworzenie from_arrow_schema typów zagnieżdżonych obsługi
  • [SPARK-42057] [SC-120507] [SQL] [PROTOBUF] Napraw sposób obsługi wyjątku w raportowaniu błędów.
  • [SPARK-41586] [12.x] [WSZYSTKIE TESTY] [SC-120544] [PYTHON] Wprowadzenie pyspark.errors i klasy błędów dla PySpark.
  • [SPARK-41903] [SC-120543] [CONNECT] [PYTHON] Literal powinna obsługiwać 1-dim ndarray
  • [SPARK-42021] [SC-120584] [CONNECT] [PYTHON] Tworzenie createDataFrame pomocy technicznej array.array
  • [SPARK-41896] [SC-120506] [SQL] Filtrowanie według indeksu wierszy zwraca puste wyniki
  • [SPARK-41162] [SC-119742] [SQL] Naprawianie anty-i półsprzężenia na potrzeby samodzielnego sprzężenia za pomocą agregacji
  • [SPARK-41961] [SC-120501] [SQL] Obsługa funkcji wartości tabeli za pomocą funkcji LATERAL
  • [SPARK-41752] [SC-120550] [SQL] [Interfejs użytkownika] Grupowanie zagnieżdżonych wykonań w ramach wykonywania głównego
  • [SPARK-42047] [SC-120586] [SPARK-41900] [CONNECT] [PYTHON] [12.X] Literał powinien obsługiwać typy danych Numpy
  • [SPARK-42028] [SC-120344] [CONNECT] [PYTHON] Obcięcie nanoseconds timestampsl
  • [SPARK-42011] [SC-120534] [CONNECT] [PYTHON] Implementowanie elementu DataFrameReader.csv
  • [SPARK-41990] [SC-120532] [SQL] Użyj FieldReference.column zamiast w wersji 1 do konwersji filtru apply w wersji 2
  • [SPARK-39217] [SC-120446] [SQL] Sprawia, że DPP obsługuje stronę oczyszczania ma Union
  • [SPARK-42076] [SC-120551] [CONNECT] [PYTHON] Konwersja arrow -> rows danych współczynnika na conversion.py
  • [SPARK-42074] [SC-120540] [SQL] Włącz KryoSerializer , TPCDSQueryBenchmark aby wymusić rejestrację klas SQL
  • [SPARK-42012] [SC-120517] [CONNECT] [PYTHON] Implementowanie elementu DataFrameReader.orc
  • [SPARK-41832] [SC-120513] [CONNECT] [PYTHON] Poprawka DataFrame.unionByName, dodawanie allow_missing_columns
  • [SPARK-38651] [SC-120514] [SQL] Dodaj spark.sql.legacy.allowEmptySchemaWrite
  • [SPARK-41991] [SC-120406] [SQL] CheckOverflowInTableInsert wartość ExpressionProxy powinna być akceptowana jako element podrzędny
  • [SPARK-41232] [SC-120073] [SQL] [PYTHON] Dodawanie funkcji array_append
  • [SPARK-42041] [SC-120512] [SPARK-42013] [CONNECT] [PYTHON] Element DataFrameReader powinien obsługiwać listę ścieżek
  • [SPARK-42071] [SC-120533] [CORE] Zarejestruj się scala.math.Ordering$Reverse w usłudze KyroSerializer
  • [SPARK-41986] [SC-120429] [SQL] Wprowadzanie mieszania w ramach pojedynczej części
  • [SPARK-42016] [SC-120428] [CONNECT] [PYTHON] Włączanie testów związanych z zagnieżdżonym kolumną
  • [SPARK-42042] [SC-120427] [CONNECT] [PYTHON] DataFrameReader powinna obsługiwać schemat StructType
  • [SPARK-42031] [SC-120389] [CORE] [SQL] remove Czyszczenie metod, które nie wymagają zastąpienia
  • [SPARK-41746] [SC-120463] [SPARK-41838] [SPARK-41837] [SPARK-41835] [SPARK-41836] [SPARK-41847] [CONNECT] [PYTHON] Tworzenie createDataFrame(rows/lists/tuples/dicts) typów zagnieżdżonych obsługi
  • [SPARK-41437] [SC-117601] [SQL] [WSZYSTKIE TESTY] Nie optymalizuj zapytania wejściowego dwa razy dla rezerwowego zapisu w wersji 1
  • [SPARK-41840] [SC-119719] [CONNECT] [PYTHON] Dodawanie brakującego aliasu groupby
  • [SPARK-41846] [SC-119717] [CONNECT] [PYTHON] Włączanie testów dokumentu dla funkcji okien
  • [SPARK-41914] [SC-120094] [SQL] FileFormatWriter materializuje plan AQE przed uzyskaniem dostępu do elementu outputOrdering
  • [SPARK-41805] [SC-119992] [SQL] Ponowne używanie wyrażeń w oknieSpecDefinition
  • [SPARK-41977] [SC-120269] [SPARK-41978] [CONNECT] SparkSession.range do podejmowania zmiennoprzecinkowych jako argumentów
  • [SPARK-42029] [SC-120336] [CONNECT] Dodaj reguły cieniowania Guava, aby connect-common uniknąć niepowodzenia uruchamiania
  • [SPARK-41989] [SC-120334] [PYTHON] Unikaj konfigurowania rejestrowania powodującego niezgodność z biblioteki pyspark.pandas
  • [SPARK-42003] [SC-120331] [SQL] Zmniejsz zduplikowany kod w funkcji ResolveGroupByAll
  • [SPARK-41635] [SC-120313] [SQL] Naprawianie grupy według wszystkich raportów o błędach
  • [SPARK-41047] [SC-120291] [SQL] Ulepszanie dokumentacji dla rundy
  • [SPARK-41822] [SC-120122] [CONNECT] Konfigurowanie połączenia gRPC dla klienta Scala/JVM
  • [SPARK-41879] [SC-120264] [CONNECT] [PYTHON] Tworzenie DataFrame.collect typów zagnieżdżonych obsługi
  • [SPARK-41887] [SC-120268] [CONNECT] [PYTHON] Ustaw DataFrame.hint parametr typu zaakceptuj listę
  • [SPARK-41964] [SC-120210] [CONNECT] [PYTHON] Dodawanie listy nieobsługiwanych funkcji we/wy
  • [SPARK-41595] [SC-120097] [SQL] Obsługa funkcji generatora eksploduje/explode_outer w klauzuli FROM
  • [SPARK-41957] [SC-120121] [CONNECT] [PYTHON] Włączanie testu dokumentu dla DataFrame.hint
  • [SPARK-41886] [SC-120141] [CONNECT] [PYTHON] DataFrame.intersect Dane wyjściowe doctest mają inną kolejność
  • [SPARK-41442] [SC-117795] [SQL] [WSZYSTKIE TESTY] Zaktualizuj wartość SQLMetric tylko w przypadku scalania z prawidłową metryki
  • [SPARK-41944] [SC-120046] [CONNECT] Przekazywanie konfiguracji, gdy lokalny tryb zdalny jest włączony
  • [SPARK-41708] [SC-119838] [SQL] Ściąganie informacji o wersji 1write do WriteFiles
  • [SPARK-41780] [SC-120000] [SQL] Należy zgłosić INVALID_PARAMETER_VALUE. WZORZEC, gdy parametry regexp są nieprawidłowe
  • [SPARK-41889] [SC-119975] [SQL] Dołącz główną przyczynę do nieprawidłowych klas błędów ErrorError i refaktoryzacji INVALID_PARAMETER_VALUE
  • [SPARK-41860] [SC-120028] [SQL] Klasy wielkości liter AvroScanBuilder i JsonScanBuilder
  • [SPARK-41945] [SC-120010] [CONNECT] [PYTHON] Python: połącz klienta z utraconymi danymi kolumn za pomocą pyarrow. Table.to_pylist
  • [SPARK-41690] [SC-119102] [SC-119087] [SQL] [CONNECT] Niezależne kodery
  • [SPARK-41354] [SC-119995] [CONNECT] [PYTHON] Implementowanie ponownego partycjonowaniaByExpression
  • [SPARK-41581] [SC-119997] [SQL] Aktualizuj _LEGACY_ERROR_TEMP_1230 jako INTERNAL_ERROR
  • [SPARK-41928] [SC-119972] [CONNECT] [PYTHON] Dodaj nieobsługiwaną listę dla polecenia functions
  • [SPARK-41933] [SC-119980] [CONNECT] Zapewnianie trybu lokalnego, który automatycznie uruchamia serwer
  • [SPARK-41899] [SC-119971] [CONNECT] [PYTHON] createDataFrame' powinien uwzględniać schemat DDL dostarczony przez użytkownika
  • [SPARK-41936] [SC-119978] [CONNECT] [PYTHON] Ponowne withMetadata używanie narzędzia withColumns proto
  • [SPARK-41898] [SC-119931] [CONNECT] [PYTHON] Window.rowsBetween, Window.rangeBetween parameters typechecking parzystość z pyspark
  • [SPARK-41939] [SC-119977] [CONNECT] [PYTHON] Dodawanie nieobsługiwanej listy funkcji catalog
  • [SPARK-41924] [SC-119946] [CONNECT] [PYTHON] Tworzenie metadanych obsługi obiektu StructType i implementowanie DataFrame.withMetadata
  • [SPARK-41934] [SC-119967] [CONNECT] [PYTHON] Dodaj nieobsługiwaną listę funkcji dla polecenia session
  • [SPARK-41875] [SC-119969] [CONNECT] [PYTHON] Dodawanie przypadków testowych dla Dataset.to()
  • [SPARK-41824] [SC-119970] [CONNECT] [PYTHON] Wyretest dokumentu w celu wyjaśnienia połączenia
  • [SPARK-41880] [SC-119959] [CONNECT] [PYTHON] Ustaw, aby funkcja from_json akceptowała schemat niesłowny
  • [SPARK-41927] [SC-119952] [CONNECT] [PYTHON] Dodaj nieobsługiwaną listę dla polecenia GroupedData
  • [SPARK-41929] [SC-119949] [CONNECT] [PYTHON] Dodawanie funkcji array_compact
  • [SPARK-41827] [SC-119841] [CONNECT] [PYTHON] Tworzenie GroupBy listy kolumn akceptowanych
  • [SPARK-41925] [SC-119905] [SQL] Włącz spark.sql.orc.enableNestedColumnVectorizedReader domyślnie
  • [SPARK-41831] [SC-119853] [CONNECT] [PYTHON] Tworzenie DataFrame.select listy kolumn akceptowanych
  • [SPARK-41455] [SC-119858] [CONNECT] [PYTHON] Odrzucanie DataFrame.collect informacji o strefie czasowej
  • [SPARK-41923] [SC-119861] [CONNECT] [PYTHON] Dodaj DataFrame.writeTo do nieobsługiwanej listy
  • [SPARK-41912] [SC-119837] [SQL] Podzapytywanie nie powinno weryfikować CTE
  • [SPARK-41828] [SC-119832] [CONNECT] [PYTHON] [12.X] Tworzenie createDataFrame obsługi pustej ramki danych
  • [SPARK-41905] [SC-119848] [CONNECT] Obsługa nazwy jako ciągów we fragmentatorze
  • [SPARK-41869] [SC-119845] [CONNECT] Odrzucanie pojedynczego ciągu w dropDuplicates
  • [SPARK-41830] [SC-119840] [CONNECT] [PYTHON] Zaakceptuj DataFrame.sample te same parametry co PySpark
  • [SPARK-41849] [SC-119835] [CONNECT] Implementowanie elementu DataFrameReader.text
  • [SPARK-41861] [SC-119834] [SQL] Wykonaj zwracanie skanowania typu build() programu ScanBuilders w wersji 2
  • [SPARK-41825] [SC-119710] [CONNECT] [PYTHON] Włączanie testów dokumentu związanych z DataFrame.show
  • [SPARK-41855] [SC-119804] [SC-119410] [SPARK-41814] [SPARK-41851] [SPARK-41852] [CONNECT] [PYTHON] [12.X] Upewnij się, że createDataFrame dojście brak/naN są poprawne
  • [SPARK-41833] [SC-119685] [SPARK-41881] [SPARK-41815] [CONNECT] [PYTHON] Utwórz DataFrame.collect uchwyt None/NaN/Array/Binary porperly
  • [SPARK-39318] [SC-119713] [SQL] Usuń złote pliki tpch-plan-stability WithStats
  • [SPARK-41791] [SC-119745] Dodawanie nowych typów kolumn metadanych źródła plików
  • [SPARK-41790] [SC-119729] [SQL] Poprawnie ustaw format czytnika TRANSFORM i modułu zapisywania
  • [SPARK-41829] [SC-119725] [CONNECT] [PYTHON] Dodaj brakujący parametr porządkowania w pliku Sort i sortWithinPartitions
  • [SPARK-41576] [SC-119718] [SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_2051
  • [SPARK-41821] [SC-119716] [CONNECT] [PYTHON] Poprawiono test dokumentu dla elementu DataFrame.describe
  • [SPARK-41871] [SC-119714] [CONNECT] Parametr wskazówki ramki danych może być str, float lub int
  • [SPARK-41720] [SC-119076] [SQL] Zmień nazwę UnresolvedFunc na UnresolvedFunctionName
  • [SPARK-41573] [SC-119567] [SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_2136
  • [SPARK-41862] [SC-119492] [SQL] Naprawiono usterkę poprawności związaną z wartościami DOMYŚLNYmi w czytniku Orc
  • [SPARK-41582] [SC-119482] [SC-118701] [CORE] [SQL] Ponowne użycie INVALID_TYPED_LITERAL zamiast _LEGACY_ERROR_TEMP_0022

Aktualizacje konserwacyjne

Zobacz Aktualizacje konserwacji środowiska Databricks Runtime 12.2.

Środowisko systemu

  • System operacyjny: Ubuntu 20.04.5 LTS
  • Java: Zulu 8.68.0.21-CA-linux64
  • Scala: 2.12.15
  • Python: 3.9.5
  • R: 4.2.2
  • Delta Lake: 2.2.0

Zainstalowane biblioteki języka Python

Biblioteka Wersja Biblioteka Wersja Biblioteka Wersja
argon2-cffi 21.3.0 argon2-cffi-bindings 21.2.0 asttokens 2.0.5
attrs 21.4.0 backcall 0.2.0 backports.entry-points-selectable 1.2.0
beautifulsoup4 4.11.1 black (czarny) 22.3.0 Bleach 4.1.0
boto3 1.21.32 botocore 1.24.32 certifi 2021.10.8
cffi 1.15.0 chardet 4.0.0 charset-normalizer 2.0.4
kliknięcie 8.0.4 Kryptografii 3.4.8 Cycler 0.11.0
Cython 0.29.28 dbus-python 1.2.16 debugpy 1.5.1
Dekorator 5.1.1 defusedxml 0.7.1 distlib 0.3.6
docstring-to-markdown 0,11 punkty wejścia 0,4 Wykonywanie 0.8.3
aspekty — omówienie 1.0.0 fastjsonschema 2.16.2 filelock 3.9.0
fonttools 4.25.0 Idna 3.3 ipykernel 6.15.3
Ipython 8.5.0 ipython-genutils 0.2.0 ipywidgets 7.7.2
Jedi 0.18.1 Jinja2 2.11.3 jmespath 0.10.0
joblib 1.1.1 jsonschema 4.4.0 jupyter-client 6.1.12
jupyter_core 4.11.2 jupyterlab-pygments 0.1.2 jupyterlab-widgets 1.0.0
kiwisolver 1.3.2 Znaczniki Sejf 2.0.1 matplotlib 3.5.1
biblioteka matplotlib-inline 0.1.2 Mccabe 0.7.0 mistune 0.8.4
mypy-extensions 0.4.3 nbclient 0.5.13 nbconvert 6.4.4
nbformat 5.3.0 nest-asyncio 1.5.5 nodeenv 1.7.0
notes 6.4.8 Numpy 1.21.5 Opakowania 21,3
Pandas 1.4.2 pandocfilters 1.5.0 parso 0.8.3
pathspec 0.9.0 Patsy 0.5.2 pexpect 4.8.0
pickleshare 0.7.5 Poduszkę 9.0.1 Pip 21.2.4
platformdirs 2.6.2 kreślenie 5.6.0 wtyczka 1.0.0
prometheus-client 0.13.1 prompt-toolkit 3.0.20 protobuf 3.19.4
psutil 5.8.0 psycopg2 2.9.3 ptyprocess 0.7.0
pure-eval 0.2.2 pyarrow 7.0.0 pycparser 2.21
pyflakes 2.5.0 Pygments 2.11.2 PyGObject 3.36.0
pyodbc 4.0.32 pyparsing 3.0.4 pyright 1.1.283
pirstent 0.18.0 python-dateutil 2.8.2 python-lsp-jsonrpc 1.0.0
python-lsp-server 1.6.0 pytz 2021.3 pyzmq 22.3.0
żądania 2.27.1 requests-unixsocket 0.2.0 Liny 0.22.0
s3transfer 0.5.0 scikit-learn 1.0.2 scipy 1.7.3
seaborn 0.11.2 Send2Trash 1.8.0 setuptools 61.2.0
Sześć 1.16.0 zupy 2.3.1 ssh-import-id 5.10
stack-data 0.2.0 statsmodels 0.13.2 Wytrzymałość 8.0.1
terminado 0.13.1 ścieżka testowa 0.5.0 threadpoolctl 2.2.0
tokenize-rt 4.2.1 tomli 1.2.2 Tornado 6.1
traitlety 5.1.1 typing_extensions 4.1.1 ujson 5.1.0
nienadzorowane uaktualnienia 0.1 urllib3 1.26.9 Virtualenv 20.8.0
wcwidth 0.2.5 webencodings 0.5.1 whatthepatch 1.0.4
Koła 0.37.0 widgetsnbextension 3.6.1 yapf 0.31.0

Zainstalowane biblioteki języka R

Biblioteki języka R są instalowane z migawki usługi Microsoft CRAN w wersji 2022-11-11.

Biblioteka Wersja Biblioteka Wersja Biblioteka Wersja
strzałkę 10.0.0 askpass 1.1 assertthat 0.2.1
Backports 1.4.1 base 4.2.2 base64enc 0.1-3
bitowe 4.0.4 bit64 4.0.5 blob 1.2.3
rozruch 1.3-28 Napar 1.0-8 Brio 1.1.3
Miotła 1.0.1 bslib 0.4.1 cachem 1.0.6
obiekt wywołujący 3.7.3 caret 6.0-93 cellranger 1.1.0
chron 2.3-58 class 7.3-21 cli 3.4.1
clipr 0.8.0 zegar 0.6.1 cluster 2.1.4
codetools 0.2-19 Kolorów 2.0-3 commonmark 1.8.1
— kompilator 4.2.2 config 0.3.1 cpp11 0.4.3
Pastel 1.5.2 poświadczenia 1.3.2 Curl 4.3.3
data.table 1.14.4 usługi Power BI 4.2.2 DBI 1.1.3
dbplyr 2.2.1 Desc 1.4.2 devtools 2.4.5
diffobj 0.3.5 Szyfrowane 0.6.30 downlit (wyłączony) 0.4.2
dplyr 1.0.10 dtplyr 1.2.2 e1071 1.7-12
wielokropek 0.3.2 evaluate 0.18 fani 1.0.3
farver 2.1.1 szybka mapa 1.1.0 fontawesome 0.4.0
forcats 0.5.2 foreach 1.5.2 Zagranicznych 0.8-82
Forge 0.2.0 Fs 1.5.2 Przyszłości 1.29.0
future.apply 1.10.0 Płukać 1.2.1 Generyczne 0.1.3
Gert 1.9.1 ggplot2 3.4.0 Gh 1.3.1
gitcreds 0.1.2 glmnet 4.1-4 Globals 0.16.1
Kleju 1.6.2 googledrive 2.0.0 googlesheets4 1.0.1
Gower 1.0.0 grafika 4.2.2 grDevices 4.2.2
Siatki 4.2.2 gridExtra 2.3 gsubfn 0,7
gtable 0.3.1 hardhat 1.2.0 Haven 2.5.1
wysoki 0,9 Hms 1.1.2 htmltools 0.5.3
htmlwidgets 1.5.4 httpuv 1.6.6 httr 1.4.4
Identyfikatory 1.0.1 Ini 0.3.1 ipred 0.9-13
isoband 0.2.6 Iteratory 1.0.14 jquerylib 0.1.4
jsonlite 1.8.3 KernSmooth 2.23-20 knitr 1,40
Etykietowania 0.4.2 Później 1.3.0 Kraty 0.20-45
Lawy 1.7.0 cykl życia 1.0.3 nasłuchiwanie 0.8.0
lubridate 1.9.0 magrittr 2.0.3 Markdown 1.3
MASSACHUSETTS 7.3-58.2 Matryca 1.5-1 zapamiętywanie 2.0.1
metody 4.2.2 mgcv 1.8-41 Mime 0,12
miniUI 0.1.1.1 Metryki modelu 1.2.2.2 modeler 0.1.9
munsell 0.5.0 nlme 3.1-162 nnet 7.3-18
numDeriv 2016.8-1.1 openssl 2.0.4 parallel 4.2.2
równolegle 1.32.1 Filar 1.8.1 pkgbuild 1.3.1
pkgconfig 2.0.3 pkgdown 2.0.6 pkgload 1.3.1
plogr 0.2.0 plyr 1.8.7 Pochwały 1.0.0
prettyunits 1.1.1 Proc 1.18.0 processx 3.8.0
prodlim 2019.11.13 profvis 0.3.7 Postęp 1.2.2
progressr 0.11.0 Obietnice 1.2.0.1 Proto 1.0.0
Serwera proxy 0.4-27 Ps 1.7.2 purrr 0.3.5
r2d3 0.2.6 R6 2.5.1 ragg 1.2.4
randomForest 4.7-1.1 rappdirs 0.3.3 rcmdcheck 1.4.0
RColorBrewer 1.1-3 Rcpp 1.0.9 RcppEigen 0.3.3.9.3
readr 2.1.3 readxl 1.4.1 przepisy 1.0.3
Rewanżu 1.0.1 rewanż2 2.1.2 Piloty 2.4.2
reprex 2.0.2 zmień kształt2 1.4.4 rlang 1.0.6
rmarkdown 2.18 RODBC 1.3-19 roxygen2 7.2.1
rpart 4.1.19 rprojroot 2.0.3 Rserve 1.8-12
RSQLite 2.2.18 rstudioapi 0,14 rversions (rversions) 2.1.2
rvest 1.0.3 Sass 0.4.2 Skale 1.2.1
selektor 0.4-2 sessioninfo 1.2.2 Kształt 1.4.6
Błyszczące 1.7.3 sourcetools 0.1.7 sparklyr 1.7.8
SparkR 3.3.2 Przestrzennej 7.3-11 Splajnów 4.2.2
sqldf 0.4-11 KWADRAT 2021.1 Statystyki 4.2.2
stats4 4.2.2 stringi 1.7.8 stringr 1.4.1
Przetrwanie 3.4-0 sys 3.4.1 systemfonts 1.0.4
tcltk 4.2.2 testthat 3.1.5 textshaping 0.3.6
tibble 3.1.8 tidyr 1.2.1 tidyselect 1.2.0
tidyverse 1.3.2 zmiana czasu 0.1.1 timeDate 4021.106
tinytex 0.42 tools 4.2.2 tzdb 0.3.0
urlchecker 1.0.1 usethis 2.1.6 utf8 1.2.2
narzędzia 4.2.2 uuid 1.1-0 vctrs 0.5.0
viridisLite 0.4.1 Vroom 1.6.0 Waldo 0.4.0
wąs 0,4 withr 2.5.0 xfun 0.34
xml2 1.3.3 xopen 1.0.0 xtable 1.8-4
Yaml 2.3.6 Zip 2.2.2

Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.12)

Identyfikator grupy Identyfikator artefaktu Wersja
Antlr Antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.189
com.amazonaws aws-java-sdk-cloudformation 1.12.189
com.amazonaws aws-java-sdk-cloudfront 1.12.189
com.amazonaws aws-java-sdk-cloudhsm 1.12.189
com.amazonaws aws-java-sdk-cloudsearch 1.12.189
com.amazonaws aws-java-sdk-cloudtrail 1.12.189
com.amazonaws aws-java-sdk-cloudwatch 1.12.189
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.189
com.amazonaws aws-java-sdk-codedeploy 1.12.189
com.amazonaws aws-java-sdk-cognitoidentity 1.12.189
com.amazonaws aws-java-sdk-cognitosync 1.12.189
com.amazonaws aws-java-sdk-config 1.12.189
com.amazonaws aws-java-sdk-core 1.12.189
com.amazonaws aws-java-sdk-datapipeline 1.12.189
com.amazonaws aws-java-sdk-directconnect 1.12.189
com.amazonaws aws-java-sdk-directory 1.12.189
com.amazonaws aws-java-sdk-dynamodb 1.12.189
com.amazonaws aws-java-sdk-ec2 1.12.189
com.amazonaws aws-java-sdk-ecs 1.12.189
com.amazonaws aws-java-sdk-efs 1.12.189
com.amazonaws aws-java-sdk-elasticache 1.12.189
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.189
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.189
com.amazonaws aws-java-sdk-elastictranscoder 1.12.189
com.amazonaws aws-java-sdk-emr 1.12.189
com.amazonaws aws-java-sdk-glacier 1.12.189
com.amazonaws aws-java-sdk-klej 1.12.189
com.amazonaws aws-java-sdk-iam 1.12.189
com.amazonaws aws-java-sdk-importexport 1.12.189
com.amazonaws aws-java-sdk-kinesis 1.12.189
com.amazonaws aws-java-sdk-kms 1.12.189
com.amazonaws aws-java-sdk-lambda 1.12.189
com.amazonaws aws-java-sdk-logs 1.12.189
com.amazonaws aws-java-sdk-machinelearning 1.12.189
com.amazonaws aws-java-sdk-opsworks 1.12.189
com.amazonaws aws-java-sdk-rds 1.12.189
com.amazonaws aws-java-sdk-redshift 1.12.189
com.amazonaws aws-java-sdk-route53 1.12.189
com.amazonaws aws-java-sdk-s3 1.12.189
com.amazonaws aws-java-sdk-ses 1.12.189
com.amazonaws aws-java-sdk-simpledb 1.12.189
com.amazonaws aws-java-sdk-simpleworkflow 1.12.189
com.amazonaws aws-java-sdk-sns 1.12.189
com.amazonaws aws-java-sdk-sqs 1.12.189
com.amazonaws aws-java-sdk-ssm 1.12.189
com.amazonaws aws-java-sdk-storagegateway 1.12.189
com.amazonaws aws-java-sdk-sts 1.12.189
com.amazonaws aws-java-sdk-support 1.12.189
com.amazonaws aws-java-sdk-biblioteka-biblioteka 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.189
com.amazonaws jmespath-java 1.12.189
com.chuusai shapeless_2.12 2.3.3
com.clearspring.analytics strumień 2.9.6
com.databricks Rserve 1.8-3
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware kryo-cieniowane 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml Kolega 1.3.4
com.fasterxml.jackson.core adnotacje jackson 2.13.4
com.fasterxml.jackson.core jackson-core 2.13.4
com.fasterxml.jackson.core jackson-databind 2.13.4.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.13.4
com.fasterxml.jackson.datatype jackson-datatype-joda 2.13.4
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.13.4
com.fasterxml.jackson.module jackson-module-paranamer 2.13.4
com.fasterxml.jackson.module jackson-module-scala_2.12 2.13.4
com.github.ben-manes.kofeina Kofeiny 2.3.4
com.github.fommil jniloader 1.1
com.github.fommil.netlib core 1.1.2
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java-natives 1.1
com.github.fommil.netlib native_system java 1.1
com.github.fommil.netlib native_system-java-natives 1.1
com.github.fommil.netlib netlib-native_ref-linux-x86_64-natives 1.1
com.github.fommil.netlib netlib-native_system-linux-x86_64-natives 1.1
com.github.luben zstd-jni 1.5.2-1
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.8.6
com.google.crypto.tink Tink 1.6.1
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava Guawa 15.0
com.google.protobuf protobuf-java 2.6.1
com.h2database h2 2.0.204
com.helger Profiler 1.1.1
com.jcraft jsch 0.1.50
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.ning compress-lzf 1.1
com.sun.mail javax.mail 1.5.2
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe config 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.0
com.univocity parsery jednowołciowości 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.15
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1.3.3
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.11.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 2.2.1
dev.ludovic.netlib Blas 2.2.1
dev.ludovic.netlib lapack 2.2.1
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift aircompressor 0.21
io.delta delta-sharing-spark_2.12 0.6.3
io.dropwizard.metrics metryki —rdzeń 4.1.1
io.dropwizard.metrics metrics-graphite 4.1.1
io.dropwizard.metrics metrics-healthchecks 4.1.1
io.dropwizard.metrics metrics-jetty9 4.1.1
io.dropwizard.metrics metrics-jmx 4.1.1
io.dropwizard.metrics metrics-json 4.1.1
io.dropwizard.metrics metrics-jvm 4.1.1
io.dropwizard.metrics serwlety metrics-servlets 4.1.1
io.netty netty-all 4.1.74.Final
io.netty netty-buffer 4.1.74.Final
io.netty netty-codec 4.1.74.Final
io.netty netty-common 4.1.74.Final
io.netty netty-handler 4.1.74.Final
io.netty netty-resolver 4.1.74.Final
io.netty netty-tcnative-classes 2.0.48.Final
io.netty transport netto 4.1.74.Final
io.netty netty-transport-classes-epoll 4.1.74.Final
io.netty netty-transport-classes-kqueue 4.1.74.Final
io.netty netty-transport-native-epoll-linux-aarch_64 4.1.74.Final
io.netty netty-transport-native-epoll-linux-x86_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-aarch_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-x86_64 4.1.74.Final
io.netty netty-transport-native-unix-common 4.1.74.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx Kolektor 0.12.0
jakarta.adnotacja jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation aktywacja 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1.1
javax.transaction transaction-api 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.10.13
net.java.dev.jna jna 5.8.0
net.razorvine Pickle 1.2
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.snowflake snowflake-jdbc 3.13.22
net.sourceforge.f2j arpack_combined_all 0.1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.8
org.antlr stringtemplate 3.2.1
org.apache.ant tat 1.9.2
org.apache.ant ant-jsch 1.9.2
org.apache.ant ant-launcher 1.9.2
org.apache.arrow format strzałki 7.0.0
org.apache.arrow strzałka-pamięć-rdzeń 7.0.0
org.apache.arrow arrow-memory-netty 7.0.0
org.apache.arrow wektor strzałki 7.0.0
org.apache.avro Avro 1.11.0
org.apache.avro avro-ipc 1.11.0
org.apache.avro avro-mapred 1.11.0
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.21
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text 1.10.0
org.apache.curator kurator-klient 2.13.0
org.apache.curator struktura kuratora 2.13.0
org.apache.curator przepisy kuratora 2.13.0
org.apache.derby Derby 10.14.2.0
org.apache.hadoop hadoop-client-api 3.3.4-databricks
org.apache.hadoop hadoop-client-runtime 3.3.4
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive podkładki hive 2.3.9
org.apache.hive hive-storage-api 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims hive-shims-scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.13
org.apache.httpcomponents httpcore 4.4.14
org.apache.ivy Bluszcz 2.5.0
org.apache.logging.log4j log4j-1.2-api 2.18.0
org.apache.logging.log4j log4j-api 2.18.0
org.apache.logging.log4j log4j-core 2.18.0
org.apache.logging.log4j log4j-slf4j-impl 2.18.0
org.apache.mesos mesos-shaded-protobuf 1.4.0
org.apache.orc orc-core 1.7.6
org.apache.orc orc-mapreduce 1.7.6
org.apache.orc podkładki orc-shim 1.7.6
org.apache.parquet parquet-column 1.12.3-databricks-0002
org.apache.parquet parquet-common 1.12.3-databricks-0002
org.apache.parquet kodowanie parquet 1.12.3-databricks-0002
org.apache.parquet parquet-format-structures 1.12.3-databricks-0002
org.apache.parquet parquet-hadoop 1.12.3-databricks-0002
org.apache.parquet parquet-jackson 1.12.3-databricks-0002
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-cieniowane 4.20
org.apache.yetus adnotacje odbiorców 0.13.0
org.apache.zookeeper zookeeper 3.6.2
org.apache.zookeeper jute dozorców 3.6.2
org.checkerframework checker-qual 3.5.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.46.v20220331
org.eclipse.jetty jetty-kontynuacja 9.4.46.v20220331
org.eclipse.jetty jetty-http 9.4.46.v20220331
org.eclipse.jetty jetty-io 9.4.46.v20220331
org.eclipse.jetty jetty-jndi 9.4.46.v20220331
org.eclipse.jetty jetty-plus 9.4.46.v20220331
org.eclipse.jetty jetty-proxy 9.4.46.v20220331
org.eclipse.jetty jetty-security 9.4.46.v20220331
org.eclipse.jetty jetty-server 9.4.46.v20220331
org.eclipse.jetty jetty-servlet 9.4.46.v20220331
org.eclipse.jetty jetty-servlets 9.4.46.v20220331
org.eclipse.jetty jetty-util 9.4.46.v20220331
org.eclipse.jetty jetty-util-ajax 9.4.46.v20220331
org.eclipse.jetty jetty-webapp 9.4.46.v20220331
org.eclipse.jetty jetty-xml 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-api 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-client 9.4.46.v20220331
org.eclipse.jetty.websocket websocket —wspólne 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-server 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-servlet 9.4.46.v20220331
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 lokalizator hk2 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.36
org.glassfish.jersey.containers jersey-container-servlet-core 2.36
org.glassfish.jersey.core jersey-client 2.36
org.glassfish.jersey.core jersey-common 2.36
org.glassfish.jersey.core jersey-server 2.36
org.glassfish.jersey.inject jersey-hk2 2.36
org.hibernate.validator moduł sprawdzania poprawności hibernacji 6.1.0.Final
org.javassist javassist 3.25.0-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains Adnotacje 17.0.0
org.joda joda-convert 1,7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mariadb.jdbc mariadb-java-client 2.7.4
org.mlflow mlflow-spark 2.1.1
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.3.3
org.roaringbitmap RoaringBitmap 0.9.25
org.roaringbitmap Podkładki 0.9.25
org.rocksdb rocksdbjni 6.28.2
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.14
org.scala-lang scala-library_2.12 2.12.14
org.scala-lang scala-reflect_2.12 2.12.14
org.scala-lang.modules scala-collection-compat_2.12 2.4.3
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt interfejs testowy 1.0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.0.8
org.scalanlp breeze-macros_2.12 1.2
org.scalanlp breeze_2.12 1.2
org.scalatest scalatest_2.12 3.0.8
org.slf4j jcl-over-slf4j 1.7.36
org.slf4j jul-to-slf4j 1.7.36
org.slf4j slf4j-api 1.7.36
org.spark-project.spark.spark Nieużywane 1.0.0
org.threeten trzydostępne dodatkowe 1.5.0
org.tukaani Xz 1,9
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel macro-compat_2.12 1.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.0.7.Final
org.xerial sqlite-jdbc 3.8.11.2
org.xerial.snappy snappy-java 1.1.8.4
org.yaml snakeyaml 1.24
Oro Oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 1.6.1-linux-x86_64
software.amazon.ion ion-java 1.0.2
Stax stax-api 1.0.1