Databricks Runtime 12.2 LTS
Poniższe informacje o wersji zawierają informacje o środowisku Databricks Runtime 12.2 LTS obsługiwanym przez platformę Apache Spark 3.3.2.
Usługa Databricks opublikowała te obrazy w marcu 2023 roku.
Nowe funkcje i ulepszenia
- Ewolucja schematu usługi Delta Lake obsługuje określanie kolumn źródłowych w instrukcjach scalania
- Obciążenia przesyłania strumieniowego ze strukturą są obsługiwane w klastrach z trybem dostępu współdzielonego
- Nowe funkcje predykcyjne we/wy
- Obsługa aliasów niejawnych kolumn bocznych
- Nowa funkcja forEachBatch
- Standardowe opcje Połączenie ion dla federacji zapytań
- Rozszerzona biblioteka funkcji SQL na potrzeby zarządzania tablicami
- Nowa funkcja maski do anonimizowania ciągów
- Typowe warunki błędów zwracają teraz wartości SQLSTATE
- Wywoływanie funkcji generatora w klauzuli FROM
- Obsługa buforów protokołu jest ogólnie dostępna
- Poprawki błędów
Ewolucja schematu usługi Delta Lake obsługuje określanie kolumn źródłowych w instrukcjach scalania
Teraz można określić kolumny obecne tylko w tabeli źródłowej w akcjach wstawiania lub aktualizowania instrukcji scalania, gdy ewolucja schematu jest włączona. W środowisku Databricks Runtime 12.1 lub nowszym tylko INSERT *
akcje lub UPDATE SET *
akcje mogą być używane do ewolucji schematu z scalania. Zobacz Automatyczna ewolucja schematu dla scalania usługi Delta Lake.
Obciążenia przesyłania strumieniowego ze strukturą są obsługiwane w klastrach z trybem dostępu współdzielonego
Teraz możesz użyć przesyłania strumieniowego ze strukturą do interakcji z wykazem aparatu Unity w udostępnionych klastrach. Obowiązują pewne ograniczenia. Zobacz Jakie funkcje przesyłania strumieniowego ze strukturą obsługuje wykaz aparatu Unity?.
Nowe funkcje predykcyjne we/wy
Obsługa photon dla ujścia Foreachbatch jest teraz dostępna. Obciążenia przesyłane strumieniowo ze źródła i scalania z tabelami delty lub zapisu w wielu ujściach mogą teraz korzystać z ujścia rozwiązania Photonized Foreachbatch.
Obsługa aliasów niejawnych kolumn bocznych
Usługa Azure Databricks obsługuje teraz domyślnie niejawne aliasy kolumn bocznych. Teraz możesz ponownie użyć wyrażenia określonego wcześniej na tej samej SELECT
liście. Na przykład, biorąc pod uwagę SELECT 1 AS a
wartość , a + 1 AS b
a
element in a + 1
można rozpoznać jako wcześniej zdefiniowany 1 AS a
element . Sprawdź rozpoznawanie nazw, aby uzyskać więcej szczegółów w kolejności rozwiązywania problemów.
Aby wyłączyć tę funkcję, możesz ustawić wartość spark.sql.lateralColumnAlias.enableImplicitResolution
false
.
Nowa funkcja forEachBatch
Funkcja Photon jest teraz obsługiwana podczas zapisywania foreachBatch
w ujściu danych.
Standardowe opcje Połączenie ion dla federacji zapytań
Teraz możesz użyć ujednoliconego zestawu opcji (hosta, portu, bazy danych, użytkownika, hasła), aby nawiązać połączenie ze źródłami danych obsługiwanymi w federacji zapytań. Port
jest opcjonalny i używa domyślnego numeru portu dla każdego źródła danych, chyba że określono.
Rozszerzona biblioteka funkcji SQL na potrzeby zarządzania tablicami
Teraz można usunąć wszystkie elementy NULL z tablicy przy użyciu array_compact. Aby dołączyć elementy do tablicy, użyj array_append.
Nowa funkcja maski do anonimizowania ciągów
Wywołaj funkcję maski, aby anonimizować poufne wartości ciągów.
Typowe warunki błędów zwracają teraz wartości SQLSTATE
Większość warunków błędów, które środowisko Databricks Runtime zawiera teraz udokumentowane wartości SQLSTATE , których można użyć do testowania błędów w standardowy sposób zgodności z programem SQL.
Wywoływanie funkcji generatora w klauzuli FROM
Teraz można wywoływać funkcje generatora wartości tabeli, takie jak eksplodować w klauzuli regularnej FROM
zapytania. Spowoduje to wyrównanie wywołania funkcji generatora do innych wbudowanych i zdefiniowanych przez użytkownika funkcji tabeli.
Obsługa buforów protokołu jest ogólnie dostępna
Za pomocą from_protobuf
funkcji i to_protobuf
można wymieniać dane między typami binarnymi i strukturami. Zobacz Bufory protokołu odczytu i zapisu.
Poprawki błędów
- Ulepszona spójność zachowania zatwierdzania delty dla pustych transakcji odnoszących się do
update
poleceń ,delete
imerge
. NaWriteSerializable
poziomie izolacji polecenia, które powodują, że żadne zmiany nie powodują teraz utworzenia pustego zatwierdzenia.Serializable
Na poziomie izolacji takie puste transakcje nie tworzą teraz zatwierdzenia.
Zmiany zachowania
Zmiany zachowania za pomocą nowej funkcji aliasu kolumny bocznej
Nowa funkcja aliasu kolumny bocznej wprowadza zmiany zachowania dla następujących przypadków podczas rozpoznawania nazw:
- Alias kolumny bocznej ma teraz pierwszeństwo przed skorelowanych odwołań o tej samej nazwie. Na przykład dla tego zapytania element
SELECT (SELECT c2 FROM (SELECT 1 AS c1, c1 AS c2) WHERE c2 > 5) FROM VALUES(6) AS t(c1)
c1
wewnętrznychc1 AS c2
został rozpoznany jako skorelowane odwołaniet.c1
, ale teraz zmienia się na alias kolumny bocznej1 AS c1
. Zapytanie zwraca teraz wartośćNULL
. - Alias kolumny bocznej ma teraz pierwszeństwo przed parametrami funkcji o tej samej nazwie. Na przykład w przypadku funkcji
CREATE OR REPLACE TEMPORARY FUNCTION func(x INT) RETURNS TABLE (a INT, b INT, c DOUBLE) RETURN SELECT x + 1 AS x, x
elementx
w treści funkcji został rozpoznany jako parametr funkcji x, ale zmienia się na aliasx + 1
kolumny bocznej w treści funkcji. ZapytanieSELECT * FROM func(1)
zwraca teraz wartość2, 2
. - Aby wyłączyć funkcję aliasu kolumny bocznej, ustaw wartość
spark.sql.lateralColumnAlias.enableImplicitResolution
false
. Aby uzyskać więcej informacji, zobacz Rozpoznawanie nazw.
Uaktualnienia biblioteki
- Uaktualnione biblioteki języka Python:
- filelock z wersji 3.8.2 do 3.9.0
- joblib z wersji 1.1.0 do 1.1.1
- platformdirs z wersji 2.6.0 do 2.6.2
- whatthepatch z 1.0.3 do 1.0.4
- Uaktualnione biblioteki języka R:
- klasa z 7.3-20 do 7.3-21
- codetools od 0.2-18 do 0.2-19
- MASA z 7.3-58 do 7.3-58.2
- nlme z 3.1-160 do 3.1-162
- Rserve od 1.8-11 do 1.8-12
- SparkR z wersji 3.3.1 do 3.3.2
Zmiany zachowania
- Użytkownicy muszą teraz mieć
SELECT
uprawnienia iMODIFY
do dowolnego pliku podczas tworzenia schematu ze zdefiniowaną lokalizacją.
Apache Spark
Środowisko Databricks Runtime 12.2 zawiera platformę Apache Spark 3.3.2. Ta wersja zawiera wszystkie poprawki i ulepszenia platformy Spark zawarte w środowisku Databricks Runtime 12.1 (nieobsługiwane), a także następujące dodatkowe poprawki błędów i ulepszenia wprowadzone na platformie Spark:
- [SPARK-42416] [SC-123205] [SC-122851] [SQL] Operacje zestawu dat nie powinny ponownie rozpoznawać przeanalizowanego planu logicznego
- [SPARK-41848] Przywróć "[CHERRY-PICK][12.x][12.1][12.0][SC-120037][CORE] Naprawianie zadania nadmiernie zaplanowanego za pomocą elementu TaskResourceProfile"
- [SPARK-42162] [SC-122711] [ES-556261] Wprowadzenie wyrażenia MultiCommutativeOp jako optymalizacji pamięci w celu kanonicznego określania dużych drzew wyrażeń dojeżdżających do pracy
- [SPARK-42406] [SC-122998] [PROTOBUF] [Cherry-pick] Naprawianie ustawienia głębokości cyklicznego dla funkcji Protobuf
- [SPARK-42002] [SC-122476] [CONNECT] [PYTHON] Implementowanie elementu DataFrameWriterV2
- [SPARK-41716] [SC-122545] [CONNECT] Zmienianie nazwy _catalog_to_pandas na _execute_and_fetch w katalogu
- [SPARK-41490] [SC-121774] [SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_2441
- [SPARK-41600] [SC-122538] [SPARK-41623] [SPARK-41612] [CONNECT] Implementowanie elementu Catalog.cacheTable, isCached i uncache
- [SPARK-42191] [SC-121990] [SQL] Obsługa funkcji udf "luhn_check"
- [SPARK-42253] [SC-121976] [PYTHON] Dodawanie testu wykrywania zduplikowanej klasy błędów
- [SPARK-42268] [SC-122251] [CONNECT] [PYTHON] Dodawanie elementu UserDefinedType w protos
- [SPARK-42231] [SC-121841] [SQL] Przekróć
MISSING_STATIC_PARTITION_COLUMN
winternalError
- [SPARK-42136] [SC-122554] Refaktoryzacja obliczenia partycjonowania wyjściowego BroadcastHashJoinExec
- [SPARK-42158] [SC-121610] [SQL] Integracja
_LEGACY_ERROR_TEMP_1003
z usługąFIELD_NOT_FOUND
- [SPARK-42192] [12.x] [SC-121820] [PYTHON] Migrowanie błędu TypeError z pliku pyspark/sql/dataframe.py do błędu PySparkTypeError
- [SPARK-35240] Przywróć element "[SC-118242][SS] Użyj elementu CheckpointFileManager ...
- [SPARK-41488] [SC-121858] [SQL] Przypisz nazwę do _LEGACY_ERROR_TEMP_1176 (i 1177)
- [SPARK-42232] [SC-122267] [SQL] Zmień nazwę klasy błędu:
UNSUPPORTED_FEATURE.JDBC_TRANSACTION
- [SPARK-42346] [SC-122480] [SQL] Ponowne zapisywanie unikatowych agregacji po scaleniu podzapytania
- [SPARK-42306] [SC-122539] [SQL] Integracja
_LEGACY_ERROR_TEMP_1317
z usługąUNRESOLVED_COLUMN.WITH_SUGGESTION
- [SPARK-42234] [SC-122354] [SQL] Zmień nazwę klasy błędu:
UNSUPPORTED_FEATURE.REPEATED_PIVOT
- [SPARK-42343] [SC-122437] [CORE] Ignoruj
IOException
wartość whandleBlockRemovalFailure
przypadku zatrzymania elementu SparkContext - [SPARK-41295] [SC-122442] [SPARK-41296] [SQL] Zmienianie nazwy klas błędów
- [SPARK-42320] [SC-122478] [SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_2188
- [SPARK-42255] [SC-122483] [SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_2430
- [SPARK-42156] [SC-121851] [CONNECT] Spark Połączenie Client obsługuje teraz usługę RetryPolicies
- [SPARK-38728] [SC-116723] [SQL] Przetestuj klasę błędów: FAILED_RENAME_PATH
- [SPARK-40005] [12.X] Przykłady samodzielne w narzędziu PySpark
- [SPARK-39347] [SC-122457] [SS] Poprawka usterek obliczania przedziału czasu, gdy czas < zdarzenia 0
- [SPARK-42336] [SC-122458] [CORE] Użyj
getOrElse()
zamiast w elemeciecontains()
ResourceAllocator - [SPARK-42125] [SC-121827] [CONNECT] [PYTHON] Funkcja UDF biblioteki Pandas w usłudze Spark Połączenie
- [SPARK-42217] [SC-122263] [SQL] Obsługa niejawnego aliasu kolumny bocznej w zapytaniach za pomocą okna
- [SPARK-35240] [SC-118242] [SS] Używanie narzędzia CheckpointFileManager do manipulowania plikami punktu kontrolnego
- [SPARK-42294] [SC-122337] [SQL] Uwzględnij wartości domyślne kolumny w danych wyjściowych DESCRIBE dla tabel w wersji 2
- [SPARK-41979] Przywróć "Przywróć "[12.x][SC-121190][SQL] Dodaj brakujące kropki dla komunikatów o błędach w klasach błędów.""
- [SPARK-42286] [SC-122336] [SQL] Powrót do poprzedniej ścieżki kodu codegen dla złożonego expr z funkcją CAST
- [SPARK-42275] [SC-122249] [CONNECT] [PYTHON] Unikaj używania wbudowanej listy, dyktowania w statycznym wpisywaniu
- [SPARK-41985] [SC-122172] [SQL] Scentralizowanie większej liczby reguł rozpoznawania kolumn
- [SPARK-42126] [SC-122330] [PYTHON] [CONNECT] Zaakceptuj zwracany typ w ciągach DDL dla scalarnych funkcji zdefiniowanych przez użytkownika języka Python na platformie Spark Połączenie
- [SPARK-42197] [SC-122328] [SC-121514] [CONNECT] Ponownie używa inicjowania maszyny wirtualnej JVM i oddzielnych grup konfiguracji do ustawiania w zdalnym trybie lokalnym
- [SPARK-41575] [SC-120118] [SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_2054
- [SPARK-41985] Przywróć "[SC-122172][SQL] Scentralizowanie większej liczby reguł rozpoznawania kolumn"
- [SPARK-42123] [SC-122234] [SC-121453] [SQL] Uwzględnij wartości domyślne kolumny w tabeli DESCRIBE i SHOW CREATE TABLE output
- [SPARK-41985] [SC-122172] [SQL] Scentralizowanie większej liczby reguł rozpoznawania kolumn
- [SPARK-42284] [SC-122233] [CONNECT] Przed uruchomieniem testów klienta — SBT upewnij się, że zestaw serwera connect jest skompilowany
- [SPARK-42239] [SC-121790] [SQL] Integracji
MUST_AGGREGATE_CORRELATED_SCALAR_SUBQUERY
- [SPARK-42278] [SC-122170] [SQL] Obsługa wypychania DS w wersji 2 obsługuje dialekty JDBC kompilowane
SortOrder
samodzielnie - [SPARK-42259] [SC-122168] [SQL] ResolveGroupingAnalytics powinna dbać o środowisko UDAF języka Python
- [SPARK-41979] Przywróć wartość "[12.x][SC-121190][SQL] Dodaj brakujące kropki dla komunikatów o błędach w klasach błędów.
- [SPARK-42224] [12.x] [SC-121708] [CONNECT] Migrowanie błędu TypeError do struktury błędów dla funkcji platformy Spark Połączenie
- [SPARK-41712] [12.x] [SC-121189] [PYTHON] [CONNECT] Migrowanie błędów platformy Spark Połączenie do struktury błędów PySpark.
- [SPARK-42119] [SC-121913] [SC-121342] [SQL] Dodawanie wbudowanych funkcji wartości tabeli wbudowanych i inline_outer
- [SPARK-41489] [SC-121713] [SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_2415
- [SPARK-42082] [12.x] [SC-121163] [SPARK-41598] [PYTHON] [CONNECT] Wprowadzenie błędu PySparkValueError i PySparkTypeError
- [SPARK-42081] [SC-121723] [SQL] Ulepszanie weryfikacji zmian planu
- [SPARK-42225] [12.x] [SC-121714] [CONNECT] Dodaj wyjątek Spark Połączenie IllegalArgumentException, aby dokładnie obsłużyć błąd platformy Spark Połączenie.
- [SPARK-42044] [12.x] [SC-121280] [SQL] Naprawianie nieprawidłowego komunikatu o błędzie dla
MUST_AGGREGATE_CORRELATED_SCALAR_SUBQUERY
- [SPARK-42194] [12.x] [SC-121712] [PS] Zezwalaj na parametr kolumn podczas tworzenia ramki danych z serii.
- [SPARK-42078] [12.x] [SC-120761] [PYTHON] Migrowanie błędów zgłaszanych przez maszynę JVM do wyjątku PySparkException.
- [SPARK-42133] [12.x] [SC-121250] Dodawanie podstawowych metod interfejsu API zestawu danych do platformy Spark Połączenie klienta Scala
- [SPARK-41979] [12.x] [SC-121190] [SQL] Dodaj brakujące kropki dla komunikatów o błędach w klasach błędów.
- [SPARK-42124] [12.x] [SC-121420] [PYTHON] [CONNECT] Scalar Inline Python UDF inline inline w usłudze Spark Połączenie
- [SPARK-42051] [SC-121994] [SQL] Obsługa generowania kodu dla funkcji HiveGenericUDF
- [SPARK-42257] [SC-121948] [CORE] Usuwanie nieużywanego zewnętrznego sortera zmiennej
- [SPARK-41735] [SC-121771] [SQL] Użyj funkcji MINIMAL zamiast STANDARD dla elementu SparkListenerSQLExecutionEnd
- [SPARK-42236] [SC-121882] [SQL] Udoskonalić
NULLABLE_ARRAY_OR_MAP_ELEMENT
- [SPARK-42233] [SC-121775] [SQL] Ulepszanie komunikatu o błędzie dla elementu
PIVOT_AFTER_GROUP_BY
- [SPARK-42229] [SC-121856] [CORE] Migrowanie
SparkCoreErrors
do klas błędów - [SPARK-42163] [SC-121839] [SQL] Naprawianie oczyszczania schematu dla indeksu tablicy niezginalnej lub klucza mapy
- [SPARK-40711] [SC-119990] [SQL] Dodawanie metryk rozmiaru rozlania dla okna
- [SPARK-42023] [SC-121847] [SPARK-42024] [CONNECT] [PYTHON] Tworzenie
createDataFrame
przymusu obsługiAtomicType -> StringType
- [SPARK-42202] [SC-121837] [Połączenie][Test] Ulepszanie logiki zatrzymania serwera testowego E2E
- [SPARK-41167] [SC-117425] [SQL] Zwiększanie wydajności podobnej do wielu dzięki utworzeniu predykatu drzewa wyrażeń wyważonego
- [SPARK-41931] [SC-121618] [SQL] Lepszy komunikat o błędzie dla niekompletnej definicji typu złożonego
- [SPARK-36124] [SC-121339] [SC-110446] [SQL] Obsługa podzapytania z korelacją za pośrednictwem unii
- [SPARK-42090] [SC-121290] [3.3] Wprowadzenie liczby ponownych prób sasl w retryingBlockTransferor
- [SPARK-42157] [SC-121264] [CORE]
spark.scheduler.mode=FAIR
powinien zapewnić harmonogram FAIR - [SPARK-41572] [SC-120772] [SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_2149
- [SPARK-41983] [SC-121224] [SQL] Zmień nazwę i popraw komunikat o błędzie dla elementu
NULL_COMPARISON_RESULT
- [SPARK-41976] [SC-121024] [SQL] Ulepszanie komunikatu o błędzie dla elementu
INDEX_NOT_FOUND
- [SPARK-41994] [SC-121210] [SC-120573] Przypisywanie parametrów SQLSTATE (1/2)
- [SPARK-41415] [SC-121117] [3.3] Ponowne próby żądań SASL
- [SPARK-38591] [SC-121018] [SQL] Dodawanie obiektów flatMapSortedGroups i cogroupSorted
- [SPARK-41975] [SC-120767] [SQL] Ulepszanie komunikatu o błędzie dla elementu
INDEX_ALREADY_EXISTS
- [SPARK-42056] [SC-121158] [SQL] [PROTOBUF] Dodawanie brakujących opcji dla funkcji Protobuf
- [SPARK-41984] [SC-120769] [SQL] Zmień nazwę i popraw komunikat o błędzie dla elementu
RESET_PERMISSION_TO_ORIGINAL
- [SPARK-41948] [SC-121196] [SQL] Naprawiono serwer NPE dla klas błędów: CANNOT_PARSE_JSON_FIELD
- [SPARK-41772] [SC-121176] [CONNECT] [PYTHON] Naprawianie nieprawidłowej nazwy kolumny w
withField
narzędziu doctest - [SPARK-41283] [SC-121175] [CONNECT] [PYTHON] Dodaj
array_append
do Połączenie - [SPARK-41960] [SC-120773] [SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_1056
- [SPARK-42134] [SC-121116] [SQL] Naprawiono polecenie getPartitionFiltersAndDataFilters() w celu obsługi filtrów bez atrybutów, do których odwołuje się odwołanie
- [SPARK-42096] [SC-121012] [CONNECT] Niektóre oczyszczanie kodu dla modułu
connect
- [SPARK-42099] [SC-121114] [SPARK-41845] [CONNECT] [PYTHON] Naprawianie
count(*)
icount(col(*))
- [SPARK-42045] [SC-120958] [SC-120450] [SQL] Tryb SQL ANSI: Round/Bround powinien zwrócić błąd w przepełnieniu liczby całkowitej
- [SPARK-42043] [SC-120968] [CONNECT] Wynik klienta Scala z testami E2E
- [SPARK-41884] [SC-121022] [CONNECT] Obsługa naiwnej krotki jako zagnieżdżonego wiersza
- [SPARK-42112] [SC-121011] [SQL] [SS] Dodawanie sprawdzania wartości null przed
ContinuousWriteRDD#compute
zamknięciem funkcjidataWriter
- [SPARK-42077] [SC-120553] [CONNECT] [PYTHON] Literał powinien zgłaszać błąd TypeError dla nieobsługiwanego typu danych
- [SPARK-42108] [SC-120898] [SQL] Przekształć
Count(*)
analizatora wCount(1)
- [SPARK-41666] [SC-120928] [SC-119009] [PYTHON] Obsługa sparametryzowanego kodu SQL przez
sql()
- [SPARK-40599] [SC-120930] [SQL] Zrelaksuj typ reguły multiTransform, aby umożliwić alternatywy dla dowolnego rodzaju seq
- [SPARK-41574] [SC-120771] [SQL] Zaktualizuj
_LEGACY_ERROR_TEMP_2009
jakoINTERNAL_ERROR
. - [SPARK-41579] [SC-120770] [SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_1249
- [SPARK-41974] [SC-120766] [SQL] Przekróć
INCORRECT_END_OFFSET
wINTERNAL_ERROR
- [SPARK-41530] [SC-120916] [SC-118513] [CORE] Zmienianie nazwy medianyHeap na PercentileMap i obsługa percentylu
- [SPARK-41757] [SC-120608] [SPARK-41901] [CONNECT] Poprawiono reprezentację ciągu dla klasy Column
- [SPARK-42084] [SC-120775] [SQL] Unikaj wycieku ograniczenia tylko do kwalifikowanego dostępu
- [SPARK-41973] [SC-120765] [SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_1311
- [SPARK-42039] [SC-120655] [SQL] SPJ: Usuń opcję w keyGroupedPartitioning#partitionValuesOpt
- [SPARK-42079] [SC-120712] [CONNECT] [PYTHON] Zmienianie nazwy komunikatów proto dla
toDF
iwithColumnsRenamed
- [SPARK-42089] [SC-120605] [CONNECT] [PYTHON] Rozwiązywanie problemów z nazwami zmiennych w zagnieżdżonych funkcjach lambda
- [SPARK-41982] [SC-120604] [SQL] Partycje typu ciąg nie powinny być traktowane jako typy liczbowe
- [SPARK-40599] [SC-120620] [SQL] Dodawanie metod wieloprzekształtnych do narzędzia TreeNode w celu wygenerowania alternatyw
- [SPARK-42085] [SC-120556] [CONNECT] [PYTHON] Tworzenie
from_arrow_schema
typów zagnieżdżonych obsługi - [SPARK-42057] [SC-120507] [SQL] [PROTOBUF] Napraw sposób obsługi wyjątku w raportowaniu błędów.
- [SPARK-41586] [12.x] [WSZYSTKIE TESTY] [SC-120544] [PYTHON] Wprowadzenie
pyspark.errors
i klasy błędów dla PySpark. - [SPARK-41903] [SC-120543] [CONNECT] [PYTHON]
Literal
powinna obsługiwać 1-dim ndarray - [SPARK-42021] [SC-120584] [CONNECT] [PYTHON] Tworzenie
createDataFrame
pomocy technicznejarray.array
- [SPARK-41896] [SC-120506] [SQL] Filtrowanie według indeksu wierszy zwraca puste wyniki
- [SPARK-41162] [SC-119742] [SQL] Naprawianie anty-i półsprzężenia na potrzeby samodzielnego sprzężenia za pomocą agregacji
- [SPARK-41961] [SC-120501] [SQL] Obsługa funkcji wartości tabeli za pomocą funkcji LATERAL
- [SPARK-41752] [SC-120550] [SQL] [Interfejs użytkownika] Grupowanie zagnieżdżonych wykonań w ramach wykonywania głównego
- [SPARK-42047] [SC-120586] [SPARK-41900] [CONNECT] [PYTHON] [12.X] Literał powinien obsługiwać typy danych Numpy
- [SPARK-42028] [SC-120344] [CONNECT] [PYTHON] Obcięcie nanoseconds timestampsl
- [SPARK-42011] [SC-120534] [CONNECT] [PYTHON] Implementowanie elementu DataFrameReader.csv
- [SPARK-41990] [SC-120532] [SQL] Użyj
FieldReference.column
zamiast w wersji 1 do konwersji filtruapply
w wersji 2 - [SPARK-39217] [SC-120446] [SQL] Sprawia, że DPP obsługuje stronę oczyszczania ma Union
- [SPARK-42076] [SC-120551] [CONNECT] [PYTHON] Konwersja
arrow -> rows
danych współczynnika naconversion.py
- [SPARK-42074] [SC-120540] [SQL] Włącz
KryoSerializer
,TPCDSQueryBenchmark
aby wymusić rejestrację klas SQL - [SPARK-42012] [SC-120517] [CONNECT] [PYTHON] Implementowanie elementu DataFrameReader.orc
- [SPARK-41832] [SC-120513] [CONNECT] [PYTHON] Poprawka
DataFrame.unionByName
, dodawanie allow_missing_columns - [SPARK-38651] [SC-120514] [SQL] Dodaj
spark.sql.legacy.allowEmptySchemaWrite
- [SPARK-41991] [SC-120406] [SQL]
CheckOverflowInTableInsert
wartość ExpressionProxy powinna być akceptowana jako element podrzędny - [SPARK-41232] [SC-120073] [SQL] [PYTHON] Dodawanie funkcji array_append
- [SPARK-42041] [SC-120512] [SPARK-42013] [CONNECT] [PYTHON] Element DataFrameReader powinien obsługiwać listę ścieżek
- [SPARK-42071] [SC-120533] [CORE] Zarejestruj się
scala.math.Ordering$Reverse
w usłudze KyroSerializer - [SPARK-41986] [SC-120429] [SQL] Wprowadzanie mieszania w ramach pojedynczej części
- [SPARK-42016] [SC-120428] [CONNECT] [PYTHON] Włączanie testów związanych z zagnieżdżonym kolumną
- [SPARK-42042] [SC-120427] [CONNECT] [PYTHON]
DataFrameReader
powinna obsługiwać schemat StructType - [SPARK-42031] [SC-120389] [CORE] [SQL]
remove
Czyszczenie metod, które nie wymagają zastąpienia - [SPARK-41746] [SC-120463] [SPARK-41838] [SPARK-41837] [SPARK-41835] [SPARK-41836] [SPARK-41847] [CONNECT] [PYTHON] Tworzenie
createDataFrame(rows/lists/tuples/dicts)
typów zagnieżdżonych obsługi - [SPARK-41437] [SC-117601] [SQL] [WSZYSTKIE TESTY] Nie optymalizuj zapytania wejściowego dwa razy dla rezerwowego zapisu w wersji 1
- [SPARK-41840] [SC-119719] [CONNECT] [PYTHON] Dodawanie brakującego aliasu
groupby
- [SPARK-41846] [SC-119717] [CONNECT] [PYTHON] Włączanie testów dokumentu dla funkcji okien
- [SPARK-41914] [SC-120094] [SQL] FileFormatWriter materializuje plan AQE przed uzyskaniem dostępu do elementu outputOrdering
- [SPARK-41805] [SC-119992] [SQL] Ponowne używanie wyrażeń w oknieSpecDefinition
- [SPARK-41977] [SC-120269] [SPARK-41978] [CONNECT] SparkSession.range do podejmowania zmiennoprzecinkowych jako argumentów
- [SPARK-42029] [SC-120336] [CONNECT] Dodaj reguły cieniowania Guava, aby
connect-common
uniknąć niepowodzenia uruchamiania - [SPARK-41989] [SC-120334] [PYTHON] Unikaj konfigurowania rejestrowania powodującego niezgodność z biblioteki pyspark.pandas
- [SPARK-42003] [SC-120331] [SQL] Zmniejsz zduplikowany kod w funkcji ResolveGroupByAll
- [SPARK-41635] [SC-120313] [SQL] Naprawianie grupy według wszystkich raportów o błędach
- [SPARK-41047] [SC-120291] [SQL] Ulepszanie dokumentacji dla rundy
- [SPARK-41822] [SC-120122] [CONNECT] Konfigurowanie połączenia gRPC dla klienta Scala/JVM
- [SPARK-41879] [SC-120264] [CONNECT] [PYTHON] Tworzenie
DataFrame.collect
typów zagnieżdżonych obsługi - [SPARK-41887] [SC-120268] [CONNECT] [PYTHON] Ustaw
DataFrame.hint
parametr typu zaakceptuj listę - [SPARK-41964] [SC-120210] [CONNECT] [PYTHON] Dodawanie listy nieobsługiwanych funkcji we/wy
- [SPARK-41595] [SC-120097] [SQL] Obsługa funkcji generatora eksploduje/explode_outer w klauzuli FROM
- [SPARK-41957] [SC-120121] [CONNECT] [PYTHON] Włączanie testu dokumentu dla
DataFrame.hint
- [SPARK-41886] [SC-120141] [CONNECT] [PYTHON]
DataFrame.intersect
Dane wyjściowe doctest mają inną kolejność - [SPARK-41442] [SC-117795] [SQL] [WSZYSTKIE TESTY] Zaktualizuj wartość SQLMetric tylko w przypadku scalania z prawidłową metryki
- [SPARK-41944] [SC-120046] [CONNECT] Przekazywanie konfiguracji, gdy lokalny tryb zdalny jest włączony
- [SPARK-41708] [SC-119838] [SQL] Ściąganie informacji o wersji 1write do
WriteFiles
- [SPARK-41780] [SC-120000] [SQL] Należy zgłosić INVALID_PARAMETER_VALUE. WZORZEC, gdy parametry
regexp
są nieprawidłowe - [SPARK-41889] [SC-119975] [SQL] Dołącz główną przyczynę do nieprawidłowych klas błędów ErrorError i refaktoryzacji INVALID_PARAMETER_VALUE
- [SPARK-41860] [SC-120028] [SQL] Klasy wielkości liter AvroScanBuilder i JsonScanBuilder
- [SPARK-41945] [SC-120010] [CONNECT] [PYTHON] Python: połącz klienta z utraconymi danymi kolumn za pomocą pyarrow. Table.to_pylist
- [SPARK-41690] [SC-119102] [SC-119087] [SQL] [CONNECT] Niezależne kodery
- [SPARK-41354] [SC-119995] [CONNECT] [PYTHON] Implementowanie ponownego partycjonowaniaByExpression
- [SPARK-41581] [SC-119997] [SQL] Aktualizuj
_LEGACY_ERROR_TEMP_1230
jakoINTERNAL_ERROR
- [SPARK-41928] [SC-119972] [CONNECT] [PYTHON] Dodaj nieobsługiwaną listę dla polecenia
functions
- [SPARK-41933] [SC-119980] [CONNECT] Zapewnianie trybu lokalnego, który automatycznie uruchamia serwer
- [SPARK-41899] [SC-119971] [CONNECT] [PYTHON] createDataFrame' powinien uwzględniać schemat DDL dostarczony przez użytkownika
- [SPARK-41936] [SC-119978] [CONNECT] [PYTHON] Ponowne
withMetadata
używanie narzędziawithColumns
proto - [SPARK-41898] [SC-119931] [CONNECT] [PYTHON] Window.rowsBetween, Window.rangeBetween parameters typechecking parzystość z pyspark
- [SPARK-41939] [SC-119977] [CONNECT] [PYTHON] Dodawanie nieobsługiwanej listy funkcji
catalog
- [SPARK-41924] [SC-119946] [CONNECT] [PYTHON] Tworzenie metadanych obsługi obiektu StructType i implementowanie
DataFrame.withMetadata
- [SPARK-41934] [SC-119967] [CONNECT] [PYTHON] Dodaj nieobsługiwaną listę funkcji dla polecenia
session
- [SPARK-41875] [SC-119969] [CONNECT] [PYTHON] Dodawanie przypadków testowych dla
Dataset.to()
- [SPARK-41824] [SC-119970] [CONNECT] [PYTHON] Wyretest dokumentu w celu wyjaśnienia połączenia
- [SPARK-41880] [SC-119959] [CONNECT] [PYTHON] Ustaw, aby funkcja
from_json
akceptowała schemat niesłowny - [SPARK-41927] [SC-119952] [CONNECT] [PYTHON] Dodaj nieobsługiwaną listę dla polecenia
GroupedData
- [SPARK-41929] [SC-119949] [CONNECT] [PYTHON] Dodawanie funkcji
array_compact
- [SPARK-41827] [SC-119841] [CONNECT] [PYTHON] Tworzenie
GroupBy
listy kolumn akceptowanych - [SPARK-41925] [SC-119905] [SQL] Włącz
spark.sql.orc.enableNestedColumnVectorizedReader
domyślnie - [SPARK-41831] [SC-119853] [CONNECT] [PYTHON] Tworzenie
DataFrame.select
listy kolumn akceptowanych - [SPARK-41455] [SC-119858] [CONNECT] [PYTHON] Odrzucanie
DataFrame.collect
informacji o strefie czasowej - [SPARK-41923] [SC-119861] [CONNECT] [PYTHON] Dodaj
DataFrame.writeTo
do nieobsługiwanej listy - [SPARK-41912] [SC-119837] [SQL] Podzapytywanie nie powinno weryfikować CTE
- [SPARK-41828] [SC-119832] [CONNECT] [PYTHON] [12.X] Tworzenie
createDataFrame
obsługi pustej ramki danych - [SPARK-41905] [SC-119848] [CONNECT] Obsługa nazwy jako ciągów we fragmentatorze
- [SPARK-41869] [SC-119845] [CONNECT] Odrzucanie pojedynczego ciągu w dropDuplicates
- [SPARK-41830] [SC-119840] [CONNECT] [PYTHON] Zaakceptuj
DataFrame.sample
te same parametry co PySpark - [SPARK-41849] [SC-119835] [CONNECT] Implementowanie elementu DataFrameReader.text
- [SPARK-41861] [SC-119834] [SQL] Wykonaj zwracanie skanowania typu build() programu ScanBuilders w wersji 2
- [SPARK-41825] [SC-119710] [CONNECT] [PYTHON] Włączanie testów dokumentu związanych z
DataFrame.show
- [SPARK-41855] [SC-119804] [SC-119410] [SPARK-41814] [SPARK-41851] [SPARK-41852] [CONNECT] [PYTHON] [12.X] Upewnij się, że
createDataFrame
dojście brak/naN są poprawne - [SPARK-41833] [SC-119685] [SPARK-41881] [SPARK-41815] [CONNECT] [PYTHON] Utwórz
DataFrame.collect
uchwyt None/NaN/Array/Binary porperly - [SPARK-39318] [SC-119713] [SQL] Usuń złote pliki tpch-plan-stability WithStats
- [SPARK-41791] [SC-119745] Dodawanie nowych typów kolumn metadanych źródła plików
- [SPARK-41790] [SC-119729] [SQL] Poprawnie ustaw format czytnika TRANSFORM i modułu zapisywania
- [SPARK-41829] [SC-119725] [CONNECT] [PYTHON] Dodaj brakujący parametr porządkowania w pliku
Sort
isortWithinPartitions
- [SPARK-41576] [SC-119718] [SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_2051
- [SPARK-41821] [SC-119716] [CONNECT] [PYTHON] Poprawiono test dokumentu dla elementu DataFrame.describe
- [SPARK-41871] [SC-119714] [CONNECT] Parametr wskazówki ramki danych może być str, float lub int
- [SPARK-41720] [SC-119076] [SQL] Zmień nazwę UnresolvedFunc na UnresolvedFunctionName
- [SPARK-41573] [SC-119567] [SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_2136
- [SPARK-41862] [SC-119492] [SQL] Naprawiono usterkę poprawności związaną z wartościami DOMYŚLNYmi w czytniku Orc
- [SPARK-41582] [SC-119482] [SC-118701] [CORE] [SQL] Ponowne użycie
INVALID_TYPED_LITERAL
zamiast_LEGACY_ERROR_TEMP_0022
Aktualizacje konserwacyjne
Zobacz Aktualizacje konserwacji środowiska Databricks Runtime 12.2.
Środowisko systemu
- System operacyjny: Ubuntu 20.04.5 LTS
- Java: Zulu 8.68.0.21-CA-linux64
- Scala: 2.12.15
- Python: 3.9.5
- R: 4.2.2
- Delta Lake: 2.2.0
Zainstalowane biblioteki języka Python
Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
---|---|---|---|---|---|
argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 | asttokens | 2.0.5 |
attrs | 21.4.0 | backcall | 0.2.0 | backports.entry-points-selectable | 1.2.0 |
beautifulsoup4 | 4.11.1 | black (czarny) | 22.3.0 | Bleach | 4.1.0 |
boto3 | 1.21.32 | botocore | 1.24.32 | certifi | 2021.10.8 |
cffi | 1.15.0 | chardet | 4.0.0 | charset-normalizer | 2.0.4 |
kliknięcie | 8.0.4 | Kryptografii | 3.4.8 | Cycler | 0.11.0 |
Cython | 0.29.28 | dbus-python | 1.2.16 | debugpy | 1.5.1 |
Dekorator | 5.1.1 | defusedxml | 0.7.1 | distlib | 0.3.6 |
docstring-to-markdown | 0,11 | punkty wejścia | 0,4 | Wykonywanie | 0.8.3 |
aspekty — omówienie | 1.0.0 | fastjsonschema | 2.16.2 | filelock | 3.9.0 |
fonttools | 4.25.0 | Idna | 3.3 | ipykernel | 6.15.3 |
Ipython | 8.5.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
Jedi | 0.18.1 | Jinja2 | 2.11.3 | jmespath | 0.10.0 |
joblib | 1.1.1 | jsonschema | 4.4.0 | jupyter-client | 6.1.12 |
jupyter_core | 4.11.2 | jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 |
kiwisolver | 1.3.2 | Znaczniki Sejf | 2.0.1 | matplotlib | 3.5.1 |
biblioteka matplotlib-inline | 0.1.2 | Mccabe | 0.7.0 | mistune | 0.8.4 |
mypy-extensions | 0.4.3 | nbclient | 0.5.13 | nbconvert | 6.4.4 |
nbformat | 5.3.0 | nest-asyncio | 1.5.5 | nodeenv | 1.7.0 |
notes | 6.4.8 | Numpy | 1.21.5 | Opakowania | 21,3 |
Pandas | 1.4.2 | pandocfilters | 1.5.0 | parso | 0.8.3 |
pathspec | 0.9.0 | Patsy | 0.5.2 | pexpect | 4.8.0 |
pickleshare | 0.7.5 | Poduszkę | 9.0.1 | Pip | 21.2.4 |
platformdirs | 2.6.2 | kreślenie | 5.6.0 | wtyczka | 1.0.0 |
prometheus-client | 0.13.1 | prompt-toolkit | 3.0.20 | protobuf | 3.19.4 |
psutil | 5.8.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
pure-eval | 0.2.2 | pyarrow | 7.0.0 | pycparser | 2.21 |
pyflakes | 2.5.0 | Pygments | 2.11.2 | PyGObject | 3.36.0 |
pyodbc | 4.0.32 | pyparsing | 3.0.4 | pyright | 1.1.283 |
pirstent | 0.18.0 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.0.0 |
python-lsp-server | 1.6.0 | pytz | 2021.3 | pyzmq | 22.3.0 |
żądania | 2.27.1 | requests-unixsocket | 0.2.0 | Liny | 0.22.0 |
s3transfer | 0.5.0 | scikit-learn | 1.0.2 | scipy | 1.7.3 |
seaborn | 0.11.2 | Send2Trash | 1.8.0 | setuptools | 61.2.0 |
Sześć | 1.16.0 | zupy | 2.3.1 | ssh-import-id | 5.10 |
stack-data | 0.2.0 | statsmodels | 0.13.2 | Wytrzymałość | 8.0.1 |
terminado | 0.13.1 | ścieżka testowa | 0.5.0 | threadpoolctl | 2.2.0 |
tokenize-rt | 4.2.1 | tomli | 1.2.2 | Tornado | 6.1 |
traitlety | 5.1.1 | typing_extensions | 4.1.1 | ujson | 5.1.0 |
nienadzorowane uaktualnienia | 0.1 | urllib3 | 1.26.9 | Virtualenv | 20.8.0 |
wcwidth | 0.2.5 | webencodings | 0.5.1 | whatthepatch | 1.0.4 |
Koła | 0.37.0 | widgetsnbextension | 3.6.1 | yapf | 0.31.0 |
Zainstalowane biblioteki języka R
Biblioteki języka R są instalowane z migawki usługi Microsoft CRAN w wersji 2022-11-11.
Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
---|---|---|---|---|---|
strzałkę | 10.0.0 | askpass | 1.1 | assertthat | 0.2.1 |
Backports | 1.4.1 | base | 4.2.2 | base64enc | 0.1-3 |
bitowe | 4.0.4 | bit64 | 4.0.5 | blob | 1.2.3 |
rozruch | 1.3-28 | Napar | 1.0-8 | Brio | 1.1.3 |
Miotła | 1.0.1 | bslib | 0.4.1 | cachem | 1.0.6 |
obiekt wywołujący | 3.7.3 | caret | 6.0-93 | cellranger | 1.1.0 |
chron | 2.3-58 | class | 7.3-21 | cli | 3.4.1 |
clipr | 0.8.0 | zegar | 0.6.1 | cluster | 2.1.4 |
codetools | 0.2-19 | Kolorów | 2.0-3 | commonmark | 1.8.1 |
— kompilator | 4.2.2 | config | 0.3.1 | cpp11 | 0.4.3 |
Pastel | 1.5.2 | poświadczenia | 1.3.2 | Curl | 4.3.3 |
data.table | 1.14.4 | usługi Power BI | 4.2.2 | DBI | 1.1.3 |
dbplyr | 2.2.1 | Desc | 1.4.2 | devtools | 2.4.5 |
diffobj | 0.3.5 | Szyfrowane | 0.6.30 | downlit (wyłączony) | 0.4.2 |
dplyr | 1.0.10 | dtplyr | 1.2.2 | e1071 | 1.7-12 |
wielokropek | 0.3.2 | evaluate | 0.18 | fani | 1.0.3 |
farver | 2.1.1 | szybka mapa | 1.1.0 | fontawesome | 0.4.0 |
forcats | 0.5.2 | foreach | 1.5.2 | Zagranicznych | 0.8-82 |
Forge | 0.2.0 | Fs | 1.5.2 | Przyszłości | 1.29.0 |
future.apply | 1.10.0 | Płukać | 1.2.1 | Generyczne | 0.1.3 |
Gert | 1.9.1 | ggplot2 | 3.4.0 | Gh | 1.3.1 |
gitcreds | 0.1.2 | glmnet | 4.1-4 | Globals | 0.16.1 |
Kleju | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
Gower | 1.0.0 | grafika | 4.2.2 | grDevices | 4.2.2 |
Siatki | 4.2.2 | gridExtra | 2.3 | gsubfn | 0,7 |
gtable | 0.3.1 | hardhat | 1.2.0 | Haven | 2.5.1 |
wysoki | 0,9 | Hms | 1.1.2 | htmltools | 0.5.3 |
htmlwidgets | 1.5.4 | httpuv | 1.6.6 | httr | 1.4.4 |
Identyfikatory | 1.0.1 | Ini | 0.3.1 | ipred | 0.9-13 |
isoband | 0.2.6 | Iteratory | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.3 | KernSmooth | 2.23-20 | knitr | 1,40 |
Etykietowania | 0.4.2 | Później | 1.3.0 | Kraty | 0.20-45 |
Lawy | 1.7.0 | cykl życia | 1.0.3 | nasłuchiwanie | 0.8.0 |
lubridate | 1.9.0 | magrittr | 2.0.3 | Markdown | 1.3 |
MASSACHUSETTS | 7.3-58.2 | Matryca | 1.5-1 | zapamiętywanie | 2.0.1 |
metody | 4.2.2 | mgcv | 1.8-41 | Mime | 0,12 |
miniUI | 0.1.1.1 | Metryki modelu | 1.2.2.2 | modeler | 0.1.9 |
munsell | 0.5.0 | nlme | 3.1-162 | nnet | 7.3-18 |
numDeriv | 2016.8-1.1 | openssl | 2.0.4 | parallel | 4.2.2 |
równolegle | 1.32.1 | Filar | 1.8.1 | pkgbuild | 1.3.1 |
pkgconfig | 2.0.3 | pkgdown | 2.0.6 | pkgload | 1.3.1 |
plogr | 0.2.0 | plyr | 1.8.7 | Pochwały | 1.0.0 |
prettyunits | 1.1.1 | Proc | 1.18.0 | processx | 3.8.0 |
prodlim | 2019.11.13 | profvis | 0.3.7 | Postęp | 1.2.2 |
progressr | 0.11.0 | Obietnice | 1.2.0.1 | Proto | 1.0.0 |
Serwera proxy | 0.4-27 | Ps | 1.7.2 | purrr | 0.3.5 |
r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.4 |
randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-3 | Rcpp | 1.0.9 | RcppEigen | 0.3.3.9.3 |
readr | 2.1.3 | readxl | 1.4.1 | przepisy | 1.0.3 |
Rewanżu | 1.0.1 | rewanż2 | 2.1.2 | Piloty | 2.4.2 |
reprex | 2.0.2 | zmień kształt2 | 1.4.4 | rlang | 1.0.6 |
rmarkdown | 2.18 | RODBC | 1.3-19 | roxygen2 | 7.2.1 |
rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-12 |
RSQLite | 2.2.18 | rstudioapi | 0,14 | rversions (rversions) | 2.1.2 |
rvest | 1.0.3 | Sass | 0.4.2 | Skale | 1.2.1 |
selektor | 0.4-2 | sessioninfo | 1.2.2 | Kształt | 1.4.6 |
Błyszczące | 1.7.3 | sourcetools | 0.1.7 | sparklyr | 1.7.8 |
SparkR | 3.3.2 | Przestrzennej | 7.3-11 | Splajnów | 4.2.2 |
sqldf | 0.4-11 | KWADRAT | 2021.1 | Statystyki | 4.2.2 |
stats4 | 4.2.2 | stringi | 1.7.8 | stringr | 1.4.1 |
Przetrwanie | 3.4-0 | sys | 3.4.1 | systemfonts | 1.0.4 |
tcltk | 4.2.2 | testthat | 3.1.5 | textshaping | 0.3.6 |
tibble | 3.1.8 | tidyr | 1.2.1 | tidyselect | 1.2.0 |
tidyverse | 1.3.2 | zmiana czasu | 0.1.1 | timeDate | 4021.106 |
tinytex | 0.42 | tools | 4.2.2 | tzdb | 0.3.0 |
urlchecker | 1.0.1 | usethis | 2.1.6 | utf8 | 1.2.2 |
narzędzia | 4.2.2 | uuid | 1.1-0 | vctrs | 0.5.0 |
viridisLite | 0.4.1 | Vroom | 1.6.0 | Waldo | 0.4.0 |
wąs | 0,4 | withr | 2.5.0 | xfun | 0.34 |
xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
Yaml | 2.3.6 | Zip | 2.2.2 |
Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.12)
Identyfikator grupy | Identyfikator artefaktu | Wersja |
---|---|---|
Antlr | Antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
com.amazonaws | aws-java-sdk-config | 1.12.189 |
com.amazonaws | aws-java-sdk-core | 1.12.189 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.189 |
com.amazonaws | aws-java-sdk-directory | 1.12.189 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
com.amazonaws | aws-java-sdk-efs | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.189 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
com.amazonaws | aws-java-sdk-emr | 1.12.189 |
com.amazonaws | aws-java-sdk-glacier | 1.12.189 |
com.amazonaws | aws-java-sdk-klej | 1.12.189 |
com.amazonaws | aws-java-sdk-iam | 1.12.189 |
com.amazonaws | aws-java-sdk-importexport | 1.12.189 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.189 |
com.amazonaws | aws-java-sdk-kms | 1.12.189 |
com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
com.amazonaws | aws-java-sdk-logs | 1.12.189 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.189 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
com.amazonaws | aws-java-sdk-rds | 1.12.189 |
com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
com.amazonaws | aws-java-sdk-ses | 1.12.189 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
com.amazonaws | aws-java-sdk-sns | 1.12.189 |
com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.189 |
com.amazonaws | aws-java-sdk-sts | 1.12.189 |
com.amazonaws | aws-java-sdk-support | 1.12.189 |
com.amazonaws | aws-java-sdk-biblioteka-biblioteka | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
com.amazonaws | jmespath-java | 1.12.189 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | strumień | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-cieniowane | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | Kolega | 1.3.4 |
com.fasterxml.jackson.core | adnotacje jackson | 2.13.4 |
com.fasterxml.jackson.core | jackson-core | 2.13.4 |
com.fasterxml.jackson.core | jackson-databind | 2.13.4.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.13.4 |
com.github.ben-manes.kofeina | Kofeiny | 2.3.4 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | core | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-natives | 1.1 |
com.github.fommil.netlib | native_system java | 1.1 |
com.github.fommil.netlib | native_system-java-natives | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.luben | zstd-jni | 1.5.2-1 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.6 |
com.google.crypto.tink | Tink | 1.6.1 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | Guawa | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.0.204 |
com.helger | Profiler | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.ning | compress-lzf | 1.1 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocity | parsery jednowołciowości | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 2.2.1 |
dev.ludovic.netlib | Blas | 2.2.1 |
dev.ludovic.netlib | lapack | 2.2.1 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0.21 |
io.delta | delta-sharing-spark_2.12 | 0.6.3 |
io.dropwizard.metrics | metryki —rdzeń | 4.1.1 |
io.dropwizard.metrics | metrics-graphite | 4.1.1 |
io.dropwizard.metrics | metrics-healthchecks | 4.1.1 |
io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
io.dropwizard.metrics | metrics-jmx | 4.1.1 |
io.dropwizard.metrics | metrics-json | 4.1.1 |
io.dropwizard.metrics | metrics-jvm | 4.1.1 |
io.dropwizard.metrics | serwlety metrics-servlets | 4.1.1 |
io.netty | netty-all | 4.1.74.Final |
io.netty | netty-buffer | 4.1.74.Final |
io.netty | netty-codec | 4.1.74.Final |
io.netty | netty-common | 4.1.74.Final |
io.netty | netty-handler | 4.1.74.Final |
io.netty | netty-resolver | 4.1.74.Final |
io.netty | netty-tcnative-classes | 2.0.48.Final |
io.netty | transport netto | 4.1.74.Final |
io.netty | netty-transport-classes-epoll | 4.1.74.Final |
io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-unix-common | 4.1.74.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | Kolektor | 0.12.0 |
jakarta.adnotacja | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | aktywacja | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transaction-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.10.13 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | Pickle | 1.2 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.22 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.8 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | tat | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | format strzałki | 7.0.0 |
org.apache.arrow | strzałka-pamięć-rdzeń | 7.0.0 |
org.apache.arrow | arrow-memory-netty | 7.0.0 |
org.apache.arrow | wektor strzałki | 7.0.0 |
org.apache.avro | Avro | 1.11.0 |
org.apache.avro | avro-ipc | 1.11.0 |
org.apache.avro | avro-mapred | 1.11.0 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | kurator-klient | 2.13.0 |
org.apache.curator | struktura kuratora | 2.13.0 |
org.apache.curator | przepisy kuratora | 2.13.0 |
org.apache.derby | Derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-api | 3.3.4-databricks |
org.apache.hadoop | hadoop-client-runtime | 3.3.4 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | podkładki hive | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.13 |
org.apache.httpcomponents | httpcore | 4.4.14 |
org.apache.ivy | Bluszcz | 2.5.0 |
org.apache.logging.log4j | log4j-1.2-api | 2.18.0 |
org.apache.logging.log4j | log4j-api | 2.18.0 |
org.apache.logging.log4j | log4j-core | 2.18.0 |
org.apache.logging.log4j | log4j-slf4j-impl | 2.18.0 |
org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
org.apache.orc | orc-core | 1.7.6 |
org.apache.orc | orc-mapreduce | 1.7.6 |
org.apache.orc | podkładki orc-shim | 1.7.6 |
org.apache.parquet | parquet-column | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-common | 1.12.3-databricks-0002 |
org.apache.parquet | kodowanie parquet | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-format-structures | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-hadoop | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-jackson | 1.12.3-databricks-0002 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-cieniowane | 4.20 |
org.apache.yetus | adnotacje odbiorców | 0.13.0 |
org.apache.zookeeper | zookeeper | 3.6.2 |
org.apache.zookeeper | jute dozorców | 3.6.2 |
org.checkerframework | checker-qual | 3.5.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-kontynuacja | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-http | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-io | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-jndi | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-plus | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-proxy | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-security | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-server | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlet | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util-ajax | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-webapp | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-api | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-client | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket —wspólne | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-server | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.46.v20220331 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | lokalizator hk2 | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.36 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.36 |
org.glassfish.jersey.core | jersey-client | 2.36 |
org.glassfish.jersey.core | jersey-common | 2.36 |
org.glassfish.jersey.core | jersey-server | 2.36 |
org.glassfish.jersey.inject | jersey-hk2 | 2.36 |
org.hibernate.validator | moduł sprawdzania poprawności hibernacji | 6.1.0.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | Adnotacje | 17.0.0 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | mlflow-spark | 2.1.1 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.3 |
org.roaringbitmap | RoaringBitmap | 0.9.25 |
org.roaringbitmap | Podkładki | 0.9.25 |
org.rocksdb | rocksdbjni | 6.28.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.14 |
org.scala-lang | scala-library_2.12 | 2.12.14 |
org.scala-lang | scala-reflect_2.12 | 2.12.14 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | interfejs testowy | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1.2 |
org.scalanlp | breeze_2.12 | 1.2 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.36 |
org.slf4j | jul-to-slf4j | 1.7.36 |
org.slf4j | slf4j-api | 1.7.36 |
org.spark-project.spark.spark | Nieużywane | 1.0.0 |
org.threeten | trzydostępne dodatkowe | 1.5.0 |
org.tukaani | Xz | 1,9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | macro-compat_2.12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1.24 |
Oro | Oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
Stax | stax-api | 1.0.1 |