Databricks Runtime 5.0 (nieobsługiwane)
Usługa Databricks opublikowała ten obraz w listopadzie 2018 roku.
Poniższe informacje o wersji zawierają informacje o środowisku Databricks Runtime 5.0 obsługiwanym przez platformę Apache Spark.
Nowe funkcje
Delta Lake
- Podquery są teraz obsługiwane w klauzuli
WHERE
obsługiDELETE
poleceń iUPDATE
. Zobacz Usuwanie z (usługa Delta Lake w usłudze Azure Databricks) i aktualizacja (usługa Delta Lake w usłudze Azure Databricks). - Nowa skalowalna implementacja poleceń
MERGE
. Zobacz Scalanie z usługą (usługa Delta Lake w usłudze Azure Databricks).- Brak limitu liczby wstawiania i aktualizacji.
- Można użyć w przypadku zapytań typu 1 protokołu SCD i typu 2. Zobacz przykładowy typ SCD 2 przy użyciu notesu MERGE.
- Może być wykonywanie operacji upsert z zapytań przesyłanych strumieniowo w trybie "update" (na przykład zapisywanie danych wyjściowych agregacji przesyłania strumieniowego do tabeli delty). Zobacz przykład Zapisywanie agregacji przesyłania strumieniowego w funkcji delta usługi Databricks przy użyciu funkcji MERGE i foreachBatch notebook.
- Podquery są teraz obsługiwane w klauzuli
Przesyłanie strumieniowe ze strukturą
- Źródło przesyłania strumieniowego opartego na powiadomieniach dotyczących plików usługi Azure Blob Storage. Może to znacznie zmniejszyć koszty wyświetlania listy podczas uruchamiania zapytania przesyłania strumieniowego ze strukturą w plikach w usłudze Azure Blob Storage. Zamiast używać listy do znajdowania nowych plików do przetwarzania, to źródło przesyłania strumieniowego może bezpośrednio odczytywać powiadomienia o zdarzeniach plików w celu znalezienia nowych plików. Zobacz Zoptymalizowane źródło plików usługi Azure Blob Storage za pomocą usługi Azure Queue Storage.
Dodano obsługę narzędzia TensorBoard na potrzeby monitorowania zadań uczenia głębokiego. Zobacz TensorBoard.
Ulepszenia
- Delta Lake
OPTIMIZE
wydajność i stabilność.- Polecenie
OPTIMIZE
zatwierdza partie tak szybko, jak to możliwe, zamiast na końcu. - Zmniejszono domyślną liczbę przebiegów wątków
OPTIMIZE
równolegle. Jest to ścisły wzrost wydajności dla dużych tabel. - Sped up
OPTIMIZE
writes by uniknąć niepotrzebnego sortowania danych podczas zapisywania w tabeli partycjonowanej. - Sped up
OPTIMIZE ZORDER BY
, tworząc go przyrostowe. Oznacza to, że polecenie pozwala teraz uniknąć ponownego zapisywania plików danych, które zostały już uporządkowane za pomocą tych samych kolumn. Zobacz Z-Ordering (klastrowanie wielowymiarowe).
- Polecenie
- Izolacja migawek podczas wykonywania zapytań względem tabel delty. Każde zapytanie z wieloma odwołaniami do tabeli delty (na przykład samosprzężenie) odczytuje z tej samej migawki tabeli, nawet jeśli istnieją współbieżne aktualizacje tabeli.
- Ulepszone opóźnienie zapytań podczas odczytywania z małych (< 2000 plików) tabel różnicowych przez buforowanie metadanych sterownika.
- Ulepszona wydajność regresji logistycznej MLlib.
- Ulepszona wydajność algorytmu drzewa MLlib.
- Uaktualniono kilka bibliotek Java i Scala. Zobacz Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.11).
- Uaktualniono niektóre zainstalowane biblioteki języka Python:
- pip: 10.0.1 do 18.0
- setuptools: 39.2.0 do 40.4.1
- tornado: 5.0.2 do 5.1.1
- Uaktualniono kilka zainstalowanych bibliotek języka R. Zobacz Zainstalowane biblioteki języka R.
Poprawki błędów
- Delta Lake
- Konfiguracje ustawione w SQL conf są teraz poprawnie stosowane do operacji usługi Delta Lake, które zostały po raz pierwszy załadowane w innym notesie.
- Usunięto usterkę w
DELETE
poleceniu, która niepoprawnie usuwała wiersze, w których warunek ma wartość null. - Strumienie, które trwa dłużej niż dwa dni, aby przetworzyć początkową partię (czyli dane, które znajdowały się w tabeli po uruchomieniu strumienia), nie kończą się już niepowodzeniem
FileNotFoundException
podczas próby odzyskania z punktu kontrolnego. - Unika stanu wyścigu, który prowadzi do
NoClassDefError
ładowania nowej tabeli. - Poprawka polegająca na
VACUUM
tym, że operacja może zakończyć się niepowodzeniem z komunikatem AssertionError z informacją: "Nie powinno mieć żadnych ścieżek bezwzględnych do usunięcia w tym miejscu". - Naprawiono
SHOW CREATE TABLE
polecenie, aby nie uwzględniać właściwości magazynu wygenerowanego przez program Hive.
- Funkcje wykonawcze, które zgłaszają wiele
NoClassDefFoundError
błędów dla wewnętrznych klas Spark, są teraz automatycznie uruchamiane ponownie, aby rozwiązać ten problem.
Znane problemy
- Nazwy kolumn określone w
replaceWhere
trybieoverwrite
w usłudze Delta Lake są uwzględniane, nawet jeśli jest włączona niewrażliwość na wielkość liter (co jest wartością domyślną). - Łącznik Snowflake dla środowiska Databricks Runtime 5.0 jest w wersji zapoznawczej.
- Jeśli anulujesz uruchomioną komórkę przesyłania strumieniowego w notesie dołączonym do klastra środowiska Databricks Runtime 5.0, nie można uruchomić żadnych kolejnych poleceń w notesie, chyba że wyczyścisz stan notesu lub uruchom ponownie klaster. Aby obejść ten problem, zobacz bazę wiedzy.
Apache Spark
Środowisko Databricks Runtime 5.0 obejmuje platformę Apache Spark 2.4.0.
SQL Core i Spark
Uwaga
Ten artykuł zawiera odwołania do terminu podrzędnego — termin, którego usługa Azure Databricks już nie używa. Po usunięciu terminu z oprogramowania usuniemy go z tego artykułu.
Główne funkcje
- Tryb wykonywania barier: [SPARK-24374] Obsługa trybu wykonywania barier w harmonogramie, aby lepiej zintegrować się z platformami uczenia głębokiego.
- Obsługa języka Scala 2.12: [SPARK-14220] Dodawanie eksperymentalnej obsługi języka Scala 2.12. Teraz możesz tworzyć platformę Spark przy użyciu języka Scala 2.12 i pisać aplikacje spark w języku Scala 2.12.
- Funkcje wyższego porządku: [SPARK-23899] Dodaj wiele nowych wbudowanych funkcji, w tym funkcji o wysokiej kolejności, aby ułatwić pracę ze złożonymi typami danych. Zobacz Funkcje wbudowane platformy Apache Spark.
- Wbudowane źródło danych Avro: [SPARK-24768] Wbudowany pakiet Spark-Avro z obsługą typów logicznych, lepszą wydajnością i użytecznością.
Interfejs API
- [SPARK-24035] składnia SQL dla tabeli przestawnej
- [SPARK-24940] Łączenie i repartyjna wskazówka dotycząca zapytań SQL
- [SPARK-19602] Obsługa rozpoznawania kolumn w pełni kwalifikowanej nazwy kolumny
- [SPARK-21274] Implementowanie z WYJĄTKIEM WSZYSTKICH i MIĘDZYSEKTOWYCH WSZYSTKICH
Wydajność i stabilność
- [SPARK-16406] Rozpoznawanie odwołań dla dużej liczby kolumn powinno być szybsze
- [SPARK-23486] Buforuj nazwę funkcji z wykazu zewnętrznego dla funkcji lookupFunctions
- [SPARK-23803] Obsługa oczyszczania zasobnika
- [SPARK-24802] Wykluczenie reguły optymalizacji
- [SPARK-4502] Oczyszczanie schematu zagnieżdżonego dla tabel Parquet
- [SPARK-24296] Obsługa replikowania bloków większych niż 2 GB
- [SPARK-24307] Obsługa wysyłania komunikatów ponad 2 GB z pamięci
- [SPARK-23243] Shuffle+Repartition na RDD może prowadzić do nieprawidłowych odpowiedzi
- [SPARK-25181] Ograniczono rozmiar pul głównych i podrzędnych wątków BlockManager, obniżając obciążenie pamięci, gdy sieć działa wolno
Łączniki
- [SPARK-23972] Zaktualizuj parquet z wersji 1.8.2 do 1.10.0
- [SPARK-25419] Poprawianie wypychania parquet
- [SPARK-23456] Natywny czytnik ORC jest domyślnie włączony
- [SPARK-22279] Domyślnie odczytywanie tabel serde hive przy użyciu natywnego czytnika ORC
- [SPARK-21783] Domyślnie włącz wypychanie filtru ORC
- [SPARK-24959] Szybkość liczby () dla plików JSON i CSV
- [SPARK-24244] Analizowanie tylko wymaganych kolumn w analizatorze CSV
- [SPARK-23786] Walidacja schematu CSV — nazwy kolumn nie są sprawdzane
- [SPARK-24423] Zapytanie dotyczące opcji określania zapytania do odczytu z JDBC
- [SPARK-22814] Data/znacznik czasu obsługi w kolumnie partycji JDBC
- [SPARK-24771] Aktualizowanie usługi Avro z wersji 1.7.7 do wersji 1.8
PySpark
- [SPARK-24215] Implementowanie chętnej oceny dla interfejsów API ramki danych
- [SPARK-22274] - [SPARK-22239] Funkcje agregacji zdefiniowane przez użytkownika z funkcją udf biblioteki pandas
- [SPARK-24396] Dodawanie przesyłania strumieniowego ze strukturą foreachWriter dla języka Python
- [SPARK-23874] Uaktualnianie narzędzia Apache Arrow do wersji 0.10.0
- [SPARK-25004] Dodawanie limitu spark.executor.pyspark.memory
- [SPARK-23030] Używanie formatu strumienia strzałki do tworzenia na podstawie i zbierania ramek danych biblioteki pandas
- [SPARK-24624] Obsługa kombinacji funkcji zdefiniowanej przez użytkownika języka Python i funkcji UDF biblioteki Scalar pandas
Inne istotne zmiany
- [SPARK-24596] Unieważnienie nieskadującej pamięci podręcznej
- [SPARK-23880] Nie wyzwalaj żadnego zadania buforowania danych
- [SPARK-23510][SPARK-24312] Obsługa magazynu metadanych Hive 2.2 i Hive 2.3
- [SPARK-23711] Dodawanie generatora rezerwowego dla elementu UnsafeProjection
- [SPARK-24626] Równoległe obliczanie rozmiaru lokalizacji w poleceniu Analizuj tabelę
Przewodniki programowania: Przewodnik programowania RDD platformy Spark i przewodnik po obiektach DataFrame i zestawach danych platformy Spark SQL.
Przesyłanie strumieniowe ze strukturą
Główne funkcje
- [SPARK-24565] Uwidocznił wiersze wyjściowe każdego mikrobajta jako ramki danych przy użyciu elementu foreachBatch (Python, Scala i Java)
- [SPARK-24396] Dodano interfejs API języka Python dla foreach i ForeachWriter
- [SPARK-25005] Obsługa parametru "kafka.isolation.level" w celu odczytu tylko zatwierdzonych rekordów z tematów platformy Kafka napisanych przy użyciu producenta transakcyjnego.
Inne istotne zmiany
- [SPARK-24662] Obsługa operatora LIMIT dla strumieni w trybie dołączania lub ukończenia
- [SPARK-24763] Usuwanie nadmiarowych danych klucza z wartości w agregacji przesyłania strumieniowego
- [SPARK-24156] Szybsze generowanie wyników wyjściowych i/lub oczyszczania stanu przy użyciu operacji stanowych (mapGroupsWithState, sprzężenia strumienia, agregacji przesyłania strumieniowego, dropDuplicates przesyłania strumieniowego), gdy nie ma danych w strumieniu wejściowym.
- [SPARK-24730] Obsługa wybierania minimalnego lub maksymalnego limitu w przypadku wielu strumieni wejściowych w zapytaniu
- [SPARK-25399] Usunięto usterkę polegającą na tym, że ponowne korzystanie z wątków wykonywania z ciągłego przetwarzania na potrzeby przesyłania strumieniowego mikrobajtów może spowodować problem z poprawnością
- [SPARK-18057] Uaktualniono wersję klienta platformy Kafka z wersji 0.10.0.1 do 2.0.0
Przewodnik programowania: Przewodnik programowania przesyłania strumieniowego ze strukturą.
MLlib
Główne funkcje
- [SPARK-22666] Źródło danych platformy Spark dla formatu obrazu
Inne istotne zmiany
- [SPARK-22119][SPARK-23412][SPARK-23217] Dodawanie miary odległości cosinusu do ewaluatora KMeans/BisectingKMeans/Clustering
- [SPARK-10697] Lift Calculation in Association Rule mining (Obliczanie metodą lift w górnictwie reguł skojarzenia)
- [SPARK-14682][SPARK-24231] Podaj metodę evaluateEachIteration lub równoważną dla spark.ml GBT
- [SPARK-7132][SPARK-24333] Dodaj dopasowanie do zestawu sprawdzania poprawności na wartość spark.ml GBT
- [SPARK-15784][SPARK-19826] Dodawanie klastra iteracji zasilania do spark.ml
- [SPARK-15064] Obsługa ustawień regionalnych w stopWordsRemover
- [SPARK-21741] Interfejs API języka Python dla wielowarikatowego składnika podsumowania opartego na ramce danych
- [SPARK-21898][SPARK-23751] Parzystość cech dla KolmogorovSmirnovTest w MLlib
- [SPARK-10884] Obsługa przewidywania dla pojedynczego wystąpienia dla modeli związanych z regresją i klasyfikacją
- [SPARK-23783] Dodawanie nowej ogólnej cechy eksportu dla potoków ML
- [SPARK-11239] Eksport PMML na potrzeby regresji liniowej ML
Przewodnik programowania: przewodnik biblioteki Machine Learning (MLlib).
SparkR
- [SPARK-25393] Dodawanie nowej funkcji from_csv()
- [SPARK-21291] dodawanie interfejsu API R partitionBy w ramce danych
- [SPARK-25007] Dodawanie array_intersect/array_except/array_union/mieszania do usługi SparkR
- [SPARK-25234] Unikaj równoległego przepełnienia liczby całkowitej
- [SPARK-25117] Dodaj obsługę FUNKCJI Z WYJĄTKIEM WSZYSTKICH i INTERSECT ALL w języku R
- [SPARK-24537] Dodawanie array_remove/array_zip/map_from_arrays/array_distinct
- [SPARK-24187] Dodawanie funkcji array_join do aparatu SparkR
- [SPARK-24331] Dodawanie arrays_overlap, array_repeat map_entries do usługi SparkR
- [SPARK-24198] Dodawanie funkcji wycinka do aparatu SparkR
- [SPARK-24197] Dodawanie funkcji array_sort do aparatu SparkR
- [SPARK-24185] dodaj spłaszczaną funkcję do aparatu SparkR
- [SPARK-24069] Dodawanie funkcji array_min/array_max
- [SPARK-24054] Dodawanie funkcji array_position/funkcji element_at
- [SPARK-23770] Dodawanie interfejsu API repartitionByRange w usłudze SparkR
Przewodnik programowania: SparkR (R na platformie Spark).
GraphX
- [SPARK-25268] uruchom równoległe spersonalizowane pageRank zgłasza wyjątek serializacji
Przewodnik programowania: GraphX Programming Guide (Przewodnik programowania GraphX).
Zakończenie obsługi
- [SPARK-23451] Przestarzałe koszt obliczeniowy KMeans
- [SPARK-25345] Przestarzałe interfejsy API readImages z obrazuSchema
Zmiany zachowania
- [SPARK-23549] Rzutowanie do znacznika czasu podczas porównywania znacznika czasu z datą
- [SPARK-24324] Biblioteka pandas Grouped Map UDF powinna przypisywać kolumny wyników według nazwy
- [SPARK-25088] Domyślne & aktualizacje dokumentacji serwera REST
- [SPARK-23425] Ładowanie danych dla ścieżki pliku hdfs z użyciem symboli wieloznacznych nie działa prawidłowo
- [SPARK-23173] from_json może tworzyć wartości null dla pól oznaczonych jako niepuste
- [SPARK-24966] Implementowanie reguł pierwszeństwa dla operacji ustawiania
- [SPARK-25708] POSIADANIE bez funkcji GROUP BY powinno być agregacją globalną
- [SPARK-24341] Poprawnie obsłuż podzapytywanie wielowartciowe IN
- [SPARK-19724] Tworzenie tabeli zarządzanej z istniejącą lokalizacją domyślną powinno zgłosić wyjątek
Zobacz Przewodnik migracji , aby zapoznać się ze wszystkimi zmianami zachowania.
Znane problemy
- [SPARK-25793] Błąd ładowania modelu w bisectingKMeans
- [SPARK-25271] Funkcja CTAS z tabelami Hive parquet powinna korzystać z natywnego źródła parquet
- [SPARK-24935] Problem z wykonywaniem programu Hive UDAF z platformy Spark 2.2 lub nowszej
Aktualizacje konserwacji
Zobacz Aktualizacje konserwacji środowiska Databricks Runtime 5.0.
Środowisko systemowe
- System operacyjny: Ubuntu 16.04.5 LTS
- Java: 1.8.0_162
- Scala: 2.11.8
- Python: 2.7.12 dla klastrów języka Python 2 i 3.5.2 dla klastrów języka Python 3.
- R: R w wersji 3.4.4 (2018-03-15)
- Klastry procesorów GPU: zainstalowane są następujące biblioteki procesora GPU firmy NVIDIA:
- Kierowca Tesla 375.66
- CUDA 9.0
- cuDNN 7.0
Uwaga
Chociaż język Scala 2.12 jest obsługiwany w systemie Apache Spark 2.4, nie jest obsługiwany w środowisku Databricks Runtime 5.0.
Zainstalowane biblioteki języka Python
Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
---|---|---|---|---|---|
ansi2html | 1.1.1 | argparse | 1.2.1 | backports-abc | 0,5 |
boto | 2.42.0 | boto3 | 1.4.1 | botocore | 1.4.70 |
brewer2mpl | 1.4.1 | certifi | 2016.2.28 | cffi | 1.7.0 |
zestaw znaków | 2.3.0 | colorama | 0.3.7 | configobj | 5.0.6 |
Kryptografii | 1.5 | Cycler | 0.10.0 | Cython | 0.24.1 |
Dekorator | 4.0.10 | docutils | 0.14 | enum34 | 1.1.6 |
et-xmlfile | 1.0.1 | freetype-py | 1.0.2 | funcsigs | 1.0.2 |
fusepy | 2.0.4 | Futures | 3.2.0 | ggplot | 0.6.8 |
html5lib | 0.999 | Idna | 2.1 | Ipaddress | 1.0.16 |
Ipython | 2.2.0 | ipython-genutils | 0.1.0 | jdcal | 1.2 |
Jinja2 | 2,8 | jmespath | 0.9.0 | llvmlite | 0.13.0 |
Lxml | 3.6.4 | MarkupSafe | 0.23 | matplotlib | 1.5.3 |
mpld3 | 0,2 | msgpack-python | 0.4.7 | ndg-httpsclient | 0.3.3 |
numba | 0.28.1 | numpy | 1.11.1 | openpyxl | 2.3.2 |
Pandas | 0.19.2 | pathlib2 | 2.1.0 | Patsy | 0.4.1 |
pexpect | 4.0.1 | pickleshare | 0.7.4 | Poduszkę | 3.3.1 |
Pip | 18.0 | Ply | 3.9 | prompt-toolkit | 1.0.7 |
psycopg2 | 2.6.2 | ptyprocess | 0.5.1 | py4j | 0.10.3 |
pyarrow | 0.8.0 | pyasn1 | 0.1.9 | pycparser | 2.14 |
Pygments | 2.1.3 | PyGObject | 3.20.0 | pyOpenSSL | 16.0.0 |
Pyparsing | 2.2.0 | pypng | 0.0.18 | Python | 2.7.12 |
python-dateutil | 2.5.3 | python-geohash | 0.8.5 | pytz | 2016.6.1 |
Żądania | 2.11.1 | s3transfer | 0.1.9 | scikit-learn | 0.18.1 |
scipy | 0.18.1 | Przeszukać | 0.32 | seaborn | 0.7.1 |
setuptools | 40.4.1 | simplejson | 3.8.2 | simples3 | 1.0 |
singledispatch | 3.4.0.3 | Sześć | 1.10.0 | statsmodels | 0.6.1 |
Tornado | 5.1.1 | traitlety | 4.3.0 | urllib3 | 1.19.1 |
Virtualenv | 15.0.1 | wcwidth | 0.1.7 | kółko | 0.31.1 |
wsgiref | 0.1.2 |
Zainstalowane biblioteki języka R
Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
---|---|---|---|---|---|
abind | 1.4-5 | assertthat | 0.2.0 | backports | 1.1.2 |
base | 3.4.4 | base64enc | 0.1-3 | BH | 1.66.0-1 |
bindr | 0.1.1 | bindrcpp | 0.2.2 | bit | 1.1-14 |
bit64 | 0.9-7 | bitops | 1.0-6 | blob | 1.1.1 |
boot | 1.3-20 | brew | 1.0-6 | broom | 0.5.0 |
callr | 3.0.0 | car | 3.0-2 | carData | 3.0-1 |
daszek | 6.0-80 | cellranger | 1.1.0 | chron | 2.3-52 |
class | 7.3-14 | cli | 1.0.0 | cluster | 2.0.7-1 |
codetools | 0.2-15 | colorspace | 1.3-2 | commonmark | 1.5 |
compiler | 3.4.4 | crayon | 1.3.4 | curl | 3.2 |
CVST | 0.2-2 | data.table | 1.11.4 | zestawy danych | 3.4.4 |
DBI | 1.0.0 | ddalpha | 1.3.4 | DEoptimR | 1.0-8 |
desc | 1.2.0 | devtools | 1.13.6 | digest | 0.6.16 |
dimRed | 0.1.0 | DoMC | 1.3.5 | dplyr | 0.7.6 |
DRR | 0.0.3 | fansi | 0.3.0 | forcats | 0.3.0 |
foreach | 1.4.4 | foreign | 0.8-70 | gbm | 2.1.3 |
Geometrii | 0.3-6 | ggplot2 | 3.0.0 | git2r | 0.23.0 |
glmnet | 2.0-16 | glue | 1.3.0 | gower | 0.1.2 |
grafika | 3.4.4 | grDevices | 3.4.4 | grid | 3.4.4 |
gsubfn | 0.7 | gtable | 0.2.0 | H2o | 3.20.0.2 |
haven | 1.1.2 | hms | 0.4.2 | httr | 1.3.1 |
hwriter | 1.3.2 | hwriterPlus | 1.0-3 | ipred | 0.9-7 |
iterators | 1.0.10 | jsonlite | 1.5 | kernlab | 0.9-27 |
KernSmooth | 2.23-15 | labeling | 0.3 | lattice | 0.20-35 |
lava | 1.6.3 | lazyeval | 0.2.1 | littler | 0.3.4 |
lme4 | 1.1-18-1 | lubridate | 1.7.4 | magic | 1.5-8 |
magrittr | 1.5 | mapproj | 1.2.6 | maps | 3.3.0 |
maptools | 0.9-3 | MASS | 7.3-50 | Macierz | 1.2-14 |
MatrixModels | 0.4-1 | memoise | 1.1.0 | methods | 3.4.4 |
mgcv | 1.8-24 | mime | 0,5 | minqa | 1.2.4 |
ModelMetrics | 1.2.0 | munsell | 0.5.0 | mvtnorm | 1.0-8 |
nlme | 3.1-137 | nloptr | 1.0.4 | nnet | 7.3-12 |
numDeriv | 2016.8-1 | openssl | 1.0.2 | openxlsx | 4.1.0 |
parallel | 3.4.4 | pbkrtest | 0.4-7 | pillar | 1.3.0 |
pkgbuild | 1.0.0 | pkgconfig | 2.0.2 | pkgKitten | 0.1.4 |
pkgload | 1.0.0 | plogr | 0.2.0 | pls | 2.7-0 |
plyr | 1.8.4 | praise | 1.0.0 | prettyunits | 1.0.2 |
pROC | 1.12.1 | processx | 3.2.0 | prodlim | 2018.04.18 |
proto | 1.0.0 | Ps | 1.1.0 | purrr | 0.2.5 |
quantreg | 5.36 | R.methodsS3 | 1.7.1 | R.oo | 1.22.0 |
R.utils | 2.7.0 | R6 | 2.2.2 | randomForest | 4.6-14 |
RColorBrewer | 1.1-2 | Rcpp | 0.12.18 | RcppEigen | 0.3.3.4.0 |
RcppRoll | 0.3.0 | RCurl | 1.95-4.11 | readr | 1.1.1 |
readxl | 1.1.0 | recipes | 0.1.3 | rematch | 1.0.1 |
reshape2 | 1.4.3 | Rio | 0.5.10 | rlang | 0.2.2 |
robustbase | 0.93-2 | RODBC | 1.3-15 | roxygen2 | 6.1.0 |
rpart | 4.1-13 | rprojroot | 1.3-2 | Rserve | 1.7-3 |
RSQLite | 2.1.1 | rstudioapi | 0.7 | scales | 1.0.0 |
sfsmisc | 1.1-2 | sp | 1.3-1 | SparkR | 2.4.0 |
SparseM | 1.77 | spatial | 7.3-11 | splines | 3.4.4 |
sqldf | 0.4-11 | SQUAREM | 2017.10-1 | statmod | 1.4.30 |
stats | 3.4.4 | stats4 | 3.4.4 | stringi | 1.2.4 |
stringr | 1.3.1 | survival | 2.42-6 | tcltk | 3.4.4 |
TeachingDemos | 2,10 | testthat | 2.0.0 | tibble | 1.4.2 |
tidyr | 0.8.1 | tidyselect | 0.2.4 | timeDate | 3043.102 |
tools | 3.4.4 | utf8 | 1.1.4 | utils | 3.4.4 |
viridisLite | 0.3.0 | whisker | 0.3-2 | withr | 2.1.2 |
xml2 | 1.2.0 | Zip | 1.0.0 |
Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.11)
Identyfikator grupy | Identyfikator artefaktu | Wersja |
---|---|---|
Antlr | Antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.8.10 |
com.amazonaws | aws-java-sdk-autoscaling | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudformation | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudfront | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.313 |
com.amazonaws | aws-java-sdk-codedeploy | 1.11.313 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.313 |
com.amazonaws | aws-java-sdk-cognitosync | 1.11.313 |
com.amazonaws | aws-java-sdk-config | 1.11.313 |
com.amazonaws | aws-java-sdk-core | 1.11.313 |
com.amazonaws | aws-java-sdk-datapipeline | 1.11.313 |
com.amazonaws | aws-java-sdk-directconnect | 1.11.313 |
com.amazonaws | aws-java-sdk-directory | 1.11.313 |
com.amazonaws | aws-java-sdk-dynamodb | 1.11.313 |
com.amazonaws | aws-java-sdk-ec2 | 1.11.313 |
com.amazonaws | aws-java-sdk-ecs | 1.11.313 |
com.amazonaws | aws-java-sdk-efs | 1.11.313 |
com.amazonaws | aws-java-sdk-elasticache | 1.11.313 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.11.313 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.313 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.313 |
com.amazonaws | aws-java-sdk-emr | 1.11.313 |
com.amazonaws | aws-java-sdk-glacier | 1.11.313 |
com.amazonaws | aws-java-sdk-iam | 1.11.313 |
com.amazonaws | aws-java-sdk-importexport | 1.11.313 |
com.amazonaws | aws-java-sdk-kinesis | 1.11.313 |
com.amazonaws | aws-java-sdk-kms | 1.11.313 |
com.amazonaws | aws-java-sdk-lambda | 1.11.313 |
com.amazonaws | aws-java-sdk-logs | 1.11.313 |
com.amazonaws | aws-java-sdk-machinelearning | 1.11.313 |
com.amazonaws | aws-java-sdk-opsworks | 1.11.313 |
com.amazonaws | aws-java-sdk-rds | 1.11.313 |
com.amazonaws | aws-java-sdk-redshift | 1.11.313 |
com.amazonaws | aws-java-sdk-route53 | 1.11.313 |
com.amazonaws | aws-java-sdk-s3 | 1.11.313 |
com.amazonaws | aws-java-sdk-ses | 1.11.313 |
com.amazonaws | aws-java-sdk-simpledb | 1.11.313 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.313 |
com.amazonaws | aws-java-sdk-sns | 1.11.313 |
com.amazonaws | aws-java-sdk-sqs | 1.11.313 |
com.amazonaws | aws-java-sdk-ssm | 1.11.313 |
com.amazonaws | aws-java-sdk-storagegateway | 1.11.313 |
com.amazonaws | aws-java-sdk-sts | 1.11.313 |
com.amazonaws | aws-java-sdk-support | 1.11.313 |
com.amazonaws | aws-java-sdk-sdk-biblioteka-biblioteka | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.11.313 |
com.amazonaws | jmespath-java | 1.11.313 |
com.carrotsearch | hppc | 0.7.2 |
com.chuusai | shapeless_2.11 | 2.3.2 |
com.clearspring.analytics | strumień | 2.7.0 |
com.databricks | Rserve | 1.8-3 |
com.databricks | dbml-local_2.11 | 0.5.0-db7-spark2.4 |
com.databricks | dbml-local_2.11-tests | 0.5.0-db7-spark2.4 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.11 | 0.4.15-9 |
com.databricks.scalapb | scalapb-runtime_2.11 | 0.4.15-9 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | Kolega | 1.0.0 |
com.fasterxml.jackson.core | adnotacje jackson | 2.6.7 |
com.fasterxml.jackson.core | jackson-core | 2.6.7 |
com.fasterxml.jackson.core | jackson-databind | 2.6.7.1 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.6.7 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.6.7 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.6.7 |
com.fasterxml.jackson.module | jackson-module-scala_2.11 | 2.6.7.1 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | Core | 1.1.2 |
com.github.fommil.netlib | native_ref java | 1.1 |
com.github.fommil.netlib | native_ref-java-natives | 1.1 |
com.github.fommil.netlib | native_system java | 1.1 |
com.github.fommil.netlib | native_system-java-natives | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.luben | zstd-jni | 1.3.2-2 |
com.github.rwl | jtransforms | 2.4.0 |
com.google.code.findbugs | jsr305 | 2.0.1 |
com.google.code.gson | gson | 2.2.4 |
com.google.guava | Guawa | 15,0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.googlecode.javaewah | JavaEWAH | 0.3.2 |
com.h2database | h2 | 1.3.174 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.mchange | c3p0 | 0.9.5.1 |
com.mchange | mchange-commons-java | 0.2.10 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.2.8 |
com.microsoft.sqlserver | mssql-jdbc | 6.2.2.jre8 |
com.ning | compress-lzf | 1.0.3 |
com.sun.mail | javax.mail | 1.5.2 |
com.thoughtworks.paranamer | paranamer | 2,8 |
com.trueaccord.lenses | lenses_2.11 | 0.3 |
com.twitter | chill-java | 0.9.3 |
com.twitter | chill_2.11 | 0.9.3 |
com.twitter | parquet-hadoop-bundle | 1.6.0 |
com.twitter | util-app_2.11 | 6.23.0 |
com.twitter | util-core_2.11 | 6.23.0 |
com.twitter | util-jvm_2.11 | 6.23.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging-api_2.11 | 2.1.2 |
com.typesafe.scala-logging | scala-logging-slf4j_2.11 | 2.1.2 |
com.univocity | parser univocity-parsers | 2.7.3 |
com.vlkan | flatbuffers | 1.2.0-3f79e055 |
com.zaxxer | HikariCP | 3.1.0 |
commons-beanutils | commons-beanutils | 1.7.0 |
commons-beanutils | commons-beanutils-core | 1.8.0 |
commons-cli | commons-cli | 1.2 |
commons-codec | commons-codec | 1.10 |
commons-collections | commons-collections | 3.2.2 |
commons-configuration | commons-configuration | 1.6 |
commons-dbcp | commons-dbcp | 1.4 |
commons-digester | commons-digester | 1.8 |
commons-httpclient | commons-httpclient | 3,1 |
commons-io | commons-io | 2,4 |
commons-lang | commons-lang | 2,6 |
commons-logging | commons-logging | 1.1.3 |
commons-net | commons-net | 3,1 |
commons-pool | commons-pool | 1.5.4 |
info.ganglia.gmetric4j | gmetric4j | 1.0.7 |
io.airlift | aircompressor | 0,10 |
io.dropwizard.metrics | metryki —rdzeń | 3.1.5 |
io.dropwizard.metrics | metrics-ganglia | 3.1.5 |
io.dropwizard.metrics | metrics-graphite | 3.1.5 |
io.dropwizard.metrics | metrics-healthchecks | 3.1.5 |
io.dropwizard.metrics | metrics-jetty9 | 3.1.5 |
io.dropwizard.metrics | metrics-json | 3.1.5 |
io.dropwizard.metrics | metrics-jvm | 3.1.5 |
io.dropwizard.metrics | metrics-log4j | 3.1.5 |
io.dropwizard.metrics | serwlety metrics-servlets | 3.1.5 |
io.netty | netty | 3.9.9.Final |
io.netty | netty-all | 4.1.17.Final |
io.prometheus | simpleclient | 0.0.16 |
io.prometheus | simpleclient_common | 0.0.16 |
io.prometheus | simpleclient_dropwizard | 0.0.16 |
io.prometheus | simpleclient_servlet | 0.0.16 |
io.prometheus.jmx | Kolektor | 0.7 |
javax.activation | Aktywacji | 1.1.1 |
javax.annotation | javax.annotation-api | 1.2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.servlet | javax.servlet-api | 3.1.0 |
javax.servlet.jsp | jsp-api | 2.1 |
javax.transaction | jta | 1.1 |
javax.validation | validation-api | 1.1.0.Final |
javax.ws.rs | interfejs API javax.ws.rs | 2.0.1 |
javax.xml.bind | jaxb-api | 2.2.2 |
javax.xml.stream | stax-api | 1.0-2 |
javolution | javolution | 5.5.1 |
jline | jline | 2,11 |
joda-time | joda-time | 2.9.3 |
Log4j | apache-log4j-extras | 1.2.17 |
Log4j | Log4j | 1.2.17 |
net.hydromatic | eigenbase-properties | 1.1.5 |
net.razorvine | pirolit | 4.13 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-jdbc | 3.6.3 |
net.snowflake | spark-snowflake_2.11 | 2.4.1 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt | oncrpc | 1.0.7 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.4 |
org.antlr | środowisko uruchomieniowe antlr4 | 4.7 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | Ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | format strzałki | 0.10.0 |
org.apache.arrow | strzałka w pamięci | 0.10.0 |
org.apache.arrow | strzałka-wektor | 0.10.0 |
org.apache.avro | Avro | 1.8.2 |
org.apache.avro | avro-ipc | 1.8.2 |
org.apache.avro | avro-mapred-hadoop2 | 1.8.2 |
org.apache.calcite | calcite-avatica | Inkubacja 1.2.0 |
org.apache.calcite | calcite-core | Inkubacja 1.2.0 |
org.apache.calcite | calcite-linq4j | Inkubacja 1.2.0 |
org.apache.commons | commons-compress | 1.8.1 |
org.apache.commons | commons-crypto | 1.0.0 |
org.apache.commons | commons-lang3 | 3,5 |
org.apache.commons | commons-math3 | 3.4.1 |
org.apache.kurator | kurator-klient | 2.7.1 |
org.apache.kurator | struktura kuratora | 2.7.1 |
org.apache.kurator | przepisy kuratora | 2.7.1 |
org.apache.derby | Derby | 10.12.1.1 |
org.apache.directory.api | api-asn1-api | 1.0.0-M20 |
org.apache.directory.api | api-util | 1.0.0-M20 |
org.apache.directory.server | apacheds-i18n | 2.0.0-M15 |
org.apache.directory.server | apacheds-kerberos-codec | 2.0.0-M15 |
org.apache.hadoop | adnotacje hadoop | 2.7.3 |
org.apache.hadoop | hadoop-auth | 2.7.3 |
org.apache.hadoop | hadoop-client | 2.7.3 |
org.apache.hadoop | hadoop-common | 2.7.3 |
org.apache.hadoop | hadoop-hdfs | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-app | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-common | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-core | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-jobclient | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-shuffle | 2.7.3 |
org.apache.hadoop | hadoop-yarn-api | 2.7.3 |
org.apache.hadoop | hadoop-yarn-client | 2.7.3 |
org.apache.hadoop | hadoop-yarn-common | 2.7.3 |
org.apache.hadoop | hadoop-yarn-server-common | 2.7.3 |
org.apache.htrace | htrace-core | Inkubacja 3.1.0 |
org.apache.httpcomponents | httpclient | 4.5.4 |
org.apache.httpcomponents | httpcore | 4.4.8 |
org.apache.ivy | Bluszcz | 2.4.0 |
org.apache.orc | orc-core-nohive | 1.5.2 |
org.apache.orc | orc-mapreduce-nohive | 1.5.2 |
org.apache.orc | podkładki orc-shims | 1.5.2 |
org.apache.parquet | parquet-column | 1.10.1-databricks2 |
org.apache.parquet | parquet-common | 1.10.1-databricks2 |
org.apache.parquet | kodowanie parquet | 1.10.1-databricks2 |
org.apache.parquet | parquet-format | 2.4.0 |
org.apache.parquet | parquet-hadoop | 1.10.1-databricks2 |
org.apache.parquet | parquet-jackson | 1.10.1-databricks2 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.9.3 |
org.apache.xbean | xbean-asm6-cieniowany | 4.8 |
org.apache.zookeeper | zookeeper | 3.4.6 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-jaxrs | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.jackson | jackson-xc | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.9 |
org.codehaus.janino | janino | 3.0.9 |
org.datanucleus | datanucleus-api-jdo | 3.2.6 |
org.datanucleus | datanucleus-core | 3.2.10 |
org.datanucleus | datanucleus-rdbms | 3.2.9 |
org.eclipse.jetty | jetty-client | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-kontynuacja | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-http | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-io | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-jndi | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-plus | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-proxy | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-security | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-server | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-servlet | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-servlets | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-util | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-webapp | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-xml | 9.3.20.v20170531 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.4.0-b34 |
org.glassfish.hk2 | lokalizator hk2 | 2.4.0-b34 |
org.glassfish.hk2 | hk2-utils | 2.4.0-b34 |
org.glassfish.hk2 | osgi-lokalizator zasobów | 1.0.1 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.4.0-b34 |
org.glassfish.hk2.external | javax.inject | 2.4.0-b34 |
org.glassfish.jersey.bundles.repackaged | jersey-guava | 2.22.2 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.22.2 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.22.2 |
org.glassfish.jersey.core | jersey-klient | 2.22.2 |
org.glassfish.jersey.core | jersey-common | 2.22.2 |
org.glassfish.jersey.core | jersey-server | 2.22.2 |
org.glassfish.jersey.media | jersey-media-jaxb | 2.22.2 |
org.hibernate | hibernate-validator | 5.1.1.Final |
org.iq80.snappy | Żwawy | 0,2 |
org.javassist | javassist | 3.18.1-GA |
org.jboss.logging | jboss-logging | 3.1.3.GA |
org.jdbi | jdbi | 2.63.1 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.11 | 3.5.3 |
org.json4s | json4s-core_2.11 | 3.5.3 |
org.json4s | json4s-jackson_2.11 | 3.5.3 |
org.json4s | json4s-scalap_2.11 | 3.5.3 |
org.lz4 | lz4-java | 1.4.0 |
org.mariadb.jdbc | mariadb-java-client | 2.1.2 |
org.mockito | mockito-all | 1.9.5 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | Postgresql | 42.1.4 |
org.roaringbitmap | Mapa roaringBit | 0.5.11 |
org.rocksdb | rocksdbjni | 5.2.1 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.11 | 2.11.8 |
org.scala-lang | scala-library_2.11 | 2.11.8 |
org.scala-lang | scala-reflect_2.11 | 2.11.8 |
org.scala-lang.modules | scala-parser-combinators_2.11 | 1.0.2 |
org.scala-lang.modules | scala-xml_2.11 | 1.0.5 |
org.scala-sbt | interfejs testowy | 1.0 |
org.scalacheck | scalacheck_2.11 | 1.12.5 |
org.scalactic | scalactic_2.11 | 3.0.3 |
org.scalanlp | breeze-macros_2.11 | 0.13.2 |
org.scalanlp | breeze_2.11 | 0.13.2 |
org.scalatest | scalatest_2.11 | 3.0.3 |
org.slf4j | jcl-over-slf4j | 1.7.16 |
org.slf4j | jul-to-slf4j | 1.7.16 |
org.slf4j | slf4j-api | 1.7.16 |
org.slf4j | slf4j-log4j12 | 1.7.16 |
org.spark-project.hive | hive-beeline | 1.2.1.spark2 |
org.spark-project.hive | hive-cli | 1.2.1.spark2 |
org.spark-project.hive | hive-exec | 1.2.1.spark2 |
org.spark-project.hive | hive-jdbc | 1.2.1.spark2 |
org.spark-project.hive | hive-metastore | 1.2.1.spark2 |
org.spark-project.spark.spark | Nieużywane | 1.0.0 |
org.spire-math | spire-macros_2.11 | 0.13.0 |
org.spire-math | spire_2.11 | 0.13.0 |
org.springframework | spring-core | 4.1.4.RELEASE |
org.springframework | spring-test | 4.1.4.RELEASE |
org.tukaani | Xz | 1.5 |
org.typelevel | machinist_2.11 | 0.6.1 |
org.typelevel | macro-compat_2.11 | 1.1.1 |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.7.1 |
org.yaml | snakeyaml | 1.16 |
Oro | Oro | 2.0.8 |
software.amazon.ion | ion-java | 1.0.2 |
Stax | stax-api | 1.0.1 |
xmlenc | xmlenc | 0.52 |