Databricks Runtime 6.0 (non pris en charge)

Databricks a publié cette image en octobre 2019.

Les notes de publication suivantes fournissent des informations sur Databricks Runtime 6.0 avec Apache Spark.

Nouvelles fonctionnalités

Environnement Python

Databricks Runtime 6.0 inclut des modifications majeures apportées à Python et à la façon dont les environnements Python sont configurés, notamment la mise à niveau de Python vers 3.7.3, l’affinage de la liste des packages Python installés et la mise à niveau de ces packages installés vers des versions plus récentes. Pour plus d’informations, consultez Bibliothèques Python installées.

En outre, comme annoncé précédemment, Databricks Runtime 6.0 ne prend pas en charge Python 2.

Les changements clé sont notamment :

  • Mise à niveau de Python de 3.5.2 vers 3.7.3. Certaines anciennes versions des packages Python peuvent ne pas être compatibles avec Python 3.7 parce qu’elles dépendent d’anciennes versions de Cython qui ne sont pas compatibles avec Python 3.7. L’installation d’un tel package peut déclencher des erreurs similaires à ‘PyThreadState’ {‘struct _ts’} has no member named ‘exc_type’ (voir le problème GitHub 1978 pour plus d’informations). Installez les versions compatibles Python 3.7 des packages Python à la place.
  • Principales mises à niveau des packages :
    • boto3 vers 1.9.162
    • ipython vers 7.4.0
    • matplotlib vers 3.0.3
    • numpy vers 1.16.2
    • pandas vers 0.24.2
    • pyarrow vers 0.13.0
  • Par rapport à Databricks Runtime 5.5 LTS (sans support), les packages Python suivants sont inclus depuis peu : asn1crypto, backcall, jedi, kiwisolver, parso et PySocks.
  • Par rapport à Databricks Runtime 5.5 LTS (sans support), les packages Python suivants ne sont pas installés : ansi2html, brewer2mpl, colorama, configobj, enum34, et-xmlfile, freetype-py, funcsigs, fusepy, ggplot, html5lib, ipaddress, jdcal, Jinja2, llvmlite, lxml, MarkupSafe, mpld3, msgpack-python, ndg-httpsclient, numba, openpyxl, pathlib2, Pillow, ply, pyasn1, pypng, python-geohash, scour, simplejson et singledispatch.
  • La fonction display sur les objets ggplot Python n’est plus prise en charge, car le package ggplot n’est pas compatible avec la version plus récente de pandas.
  • Définir PYSPARK_PYTHON sur la valeur /databricks/python2/bin/python n’est pas pris en charge, car Databricks Runtime 6.0 ne prend pas en charge Python 2. Un cluster avec ce paramètre peut toujours démarrer. Toutefois, les notebooks Python et les commandes Python ne fonctionneront pas. En fait, les cellules de commande Python échouent avec une erreur « Annulé » et une erreur Python shell failed to start s’affiche dans les journaux du pilote.
  • Si PYSPARK_PYTHON pointe vers un exécutable Python qui se trouve dans un environnement géré par Virtualenv, cet environnement est activé pour les scripts init et les notebooks. Vous pouvez utiliser les commandes python et pip qui sont définies dans l’environnement activé directement sans avoir à spécifier les emplacements absolus de ces commandes. Par défaut, PYSPARK_PYTHON est défini sur /databricks/python3/bin/python. Par conséquent, par défaut, python pointe vers /databricks/python3/bin/python et pip pointe vers /databricks/python3/bin/pip pour les notebooks et les scripts init. Si votre PYSPARK_PYTHON pointe vers un exécutable Python qui ne se trouve pas dans un environnement géré par Virtualenv ou si vous écrivez un script init pour créer le Python spécifié par PYSPARK_PYTHON, vous devrez utiliser des chemins d’accès absolus pour accéder aux python et pip corrects. Lorsque l’isolation de la bibliothèque Python est activée (ce qui est le cas par défaut), l’environnement activé est toujours l’environnement avec lequel PYSPARK_PYTHON est associé. Nous vous recommandons d’utiliser l’utilitaire de bibliothèque (dbutils.library) pour modifier l’environnement isolé associé à un notebook Python.

API Scala et Java pour les commandes DML Delta Lake

Vous pouvez maintenant modifier des données dans des tables delta à l’aide d’API de programmation pour la suppression, la mise à jour et la fusion. Ces API reflètent la syntaxe et la sémantique de leurs commandes SQL correspondantes et sont idéales pour de nombreuses charges de travail, par exemple, les opérations de dimensions lentement variables, la fusion des données de modification pour la réplication et les upserts à partir de requêtes de streaming.

Pour plus d’informations, consultez Qu’est-ce que Delta Lake ?.

API Scala et Java pour les commandes d’utilitaire Delta Lake

Databricks Runtime possède désormais des API de programmation pour les commandes d’utilitaire vacuum et history. Ces api reflètent la syntaxe et la sémantique de leurs commandes SQL correspondantes disponibles dans les versions antérieures de Databricks Runtime.

Vous pouvez nettoyer les fichiers qui ne sont plus référencés par une table Delta et qui sont antérieurs au seuil de conservation des données en exécutant vacuum sur la table. L’exécution de la commande vacuum sur la table vide de manière récursive les répertoires associés à la table Delta. Le seuil de conservation des données par défaut pour les fichiers s’élève à 7 jours. Toute possibilité de revenir à une version antérieure à la période de conservation est perdue après l’exécution de la commande vacuum. vacuum n’est pas déclenché automatiquement.

Vous pouvez récupérer des informations sur les opérations, l’utilisateur,le timestamp, etc. pour chaque écriture dans une table Delta en exécutant la commande history. Les opérations sont retournées dans l’ordre chronologique inverse. Par défaut, l’historique de la table est conservé pendant 30 jours.

Pour plus d’informations, consultez Qu’est-ce que Delta Lake ?.

Mise en cache de disque disponible pour les instances Azure Lsv2

[Disk caching]](../../optimizations/disk-cache.md) est désormais activé par défaut pour toutes les instances Lsv2.

Stockage optimisé à l’aide des API de fichier local

Les API de fichier local sont utiles car elles vous permettent d’accéder à des fichiers à partir du stockage d’objets distribués sous-jacent en tant que fichiers locaux. Dans Databricks Runtime 6.0, nous avons amélioré le montage FUSE qui permet aux API de fichier local d’adresser des limitations de clé. Databricks Runtime 6.0 améliore considérablement la vitesse de lecture et d’écriture et prend en charge les fichiers dont la taille est supérieure à 2 Go. Si vous avez besoin de lectures et d’écritures plus rapides et plus fiables, telles que pour l’apprentissage de modèle distribué, cette amélioration est particulièrement utile. En outre, il n’est pas nécessaire de charger des données dans un stockage local pour vos charges de travail, ce qui permet d’économiser les coûts et d’améliorer la productivité.

Pour plus d’informations, consultez Qu’est-ce que DBFS (Databricks File System) ?.

Plusieurs tracés matplotlib par cellule de notebook

Vous pouvez maintenant afficher plusieurs tracés matplotlib par cellule de notebook :

Multiple matplotlib plots in cell

Informations d’identification de service pour plusieurs comptes Azure Data Lake Storage Gen1

Vous pouvez maintenant configurer des informations d’identification de service pour plusieurs comptes d’Accès au stockage Azure Data Lake Storage Gen1 à partir d’Azure Databricks en vue de leur utilisation dans une même session Apache Spark. Pour ce faire, ajoutez account.<account-name> aux clés de configuration. Par exemple, si vous souhaitez configurer des informations d’identification qui permettent aux deux comptes d’accéder à adl://example1.azuredatalakestore.net et adl://example2.azuredatalakestore.net, ajoutez ce code :

spark.conf.set("fs.adl.oauth2.access.token.provider.type", "ClientCredential")

spark.conf.set("fs.adl.account.example1.oauth2.client.id", "<application-id-example1>")
spark.conf.set("fs.adl.account.example1.oauth2.credential", dbutils.secrets.get(scope = "<scope-name>", key = "<key-name-for-service-credential-example1>"))
spark.conf.set("fs.adl.account.example1.oauth2.refresh.url", "https://login.microsoftonline.com/<directory-id-example1>/oauth2/token")

spark.conf.set("fs.adl.account.example2.oauth2.client.id", "<application-id-example2>")
spark.conf.set("fs.adl.account.example2.oauth2.credential", dbutils.secrets.get(scope = "<scope-name>", key = "<key-name-for-service-credential-example2>"))
spark.conf.set("fs.adl.account.example2.oauth2.refresh.url", "https://login.microsoftonline.com/<directory-id-example2>/oauth2/token")

Améliorations

  • Mise à niveau du Kit de développement logiciel AWS vers la version 1.11.596.
  • Mise à niveau du Kit de développement logiciel (SDK) Stockage Azure dans le pilote WASB vers la version 7.0.
  • OPTIMIZE fournit maintenant un résumé des métriques telles que le nombre de fichiers ajoutés, le nombre de fichiers supprimés et la taille de fichier maximale et minimale. Voir Compacter des fichiers de données avec l’optimisation sur Delta Lake.

Suppression

L’exportation du modèle ML Databricks a été supprimée. Utilisez MLeap pour importer et exporter des modèles à la place.

Apache Spark

Notes

Cet article contient des références au terme esclave, un terme qu’Azure Databricks n’utilise pas. Lorsque le terme sera supprimé du logiciel, nous le supprimerons de cet article.

Databricks Runtime 6.0 comprend Apache Spark 2.4.3. Cette version inclut tous les correctifs et améliorations Spark figurant dans Databricks Runtime 5.5 LTS (sans prise en charge) ainsi que les correctifs de bogues et améliorations supplémentaires suivants apportés à Spark :

  • [SPARK-27992][SPARK-28881][PYTHON] Autorisation de Python à se joindre avec un thread de connexion pour propager des erreurs
  • [SPARK-27330][SS] Prend en charge l’abandon de tâche dans l’enregistreur foreach (6.0, 5.x)
  • [SPARK-28642][SQL] Masque les informations d’identification dans SHOW CREATE TABLE
  • [SPARK-28699][CORE] Correction d’un cas particulier pour l’abandon d’une étape indéterminée
  • [SPARK-28647][WEBUI] Fonctionnalité de récupération de métriques supplémentaires
  • [SPARK-28766][R][DOC] Correction de l’avertissement de faisabilité entrante CRAN sur une URL non valide
  • [SPARK-28486][CORE][PYTHON] Mappage du fichier de données PythonBroadcast vers un BroadcastBlock pour éviter la suppression par GC
  • [SPARK-25035][CORE] Éviter le mappage de mémoire au niveau de la réplication des blocs stockés sur le disque
  • [SPARK-27234][SS][PYTHON] Utiliser InheritableThreadLocal pour l’époque actuelle dans EpochTracker (pour prendre en charge les fonctions définies par l’utilisateur Python)
  • [SPARK-28638][WEBUI] Le résumé de la tâche doit contenir uniquement les métriques de tâches réussies
  • [SPARK-28153][PYTHON] Utiliser AtomicReference sur InputFileBlockHolder (pour prendre en charge input_file_name avec la fonction UDF de Python)
  • [SPARK-28564][CORE] L’application de l’historique des accès a comme valeur par défaut le dernier ID de tentative
  • [SPARK-28260] Le cluster peut se terminer automatiquement quand la requête thriftserver continue de récupérer les résultats
  • [SPARK-26152][CORE] Synchroniser le nettoyage du Worker avec l’arrêt du Worker
  • [SPARK-28545][SQL] Ajout de la taille de la table de hachage au journal directionnel de ObjectAggregationIterator
  • [SPARK-28489][SS] Correction d’un bogue où KafkaOffsetRangeCalculator.getRanges peut supprimer des décalages
  • [SPARK-28421][ML] Optimisation des performances SparseVector.apply
  • [SPARK-28156][SQL] La jointure réflexive ne doit pas manquer la vue mise en cache
  • [SPARK-28152][SQL] ShortType mappé à SMALLINT et FloatType à REAL pour MsSqlServerDialect
  • [SPARK-28054][SQL] Résolution de l’erreur lors de l’insertion dynamique de la table partitionnée Hive, où le nom de la partition est en majuscules
  • [SPARK-27159][SQL] Mise à jour du dialecte de serveur mssql pour prendre en charge le type binaire
  • [SPARK-28355][CORE][PYTHON] Utilisation de Spark conf pour le seuil auquel com...
  • [SPARK-27989][CORE] Ajout de nouvelles tentatives sur la connexion au pilote pour k8s
  • [SPARK-27416][SQL] Sérialisation UnsafeMapData et UnsafeArrayData Kryo …
  • [SPARK-28430][UI] Résolution du rendu de la table de phases lorsque certaines métriques de tâches sont manquantes
  • [SPARK-27485] EnsureRequirements.reorder doit gérer les expressions dupliquées correctement
  • [SPARK-28404][SS] Correction de la valeur du délai d’expiration négatif dans RateStreamContinuousPartitionReader
  • [SPARK-28378][PYTHON] Suppression de l’utilisation de cgi.escape
  • [SPARK-28371][SQL] Le filtre Parquet « StartsWith » devient null-safe
  • [SPARK-28015][SQL] Vérifie que stringToDate() consomme une entrée entière pour les formats aaaa et aaaa-[m]m
  • [SPARK-28302][CORE] Assurez-vous de générer un fichier de sortie unique pour SparkLauncher sur Windows
  • [SPARK-28308][CORE] La partie de CalendarInterval inférieure à une seconde doit être complétée avant l’analyse
  • [SPARK-28170][ML][PYTHON] Documentation sur la matrice et les vecteurs uniformes
  • [SPARK-28160][CORE] Résolution d’un bogue où la fonction de rappel peut se bloquer quand une exception non vérifiée est manquante
  • [SPARK-27839][SQL] Modification de UTF8String.replace() pour qu’il fonctionne sur les octets UTF8
  • [SPARK-28157][CORE] Faire en sorte que SHS efface KVStore loginfo pour les entrées bloquées
  • [SPARK-28128][PYTHON][SQL] Les fonctions définies par l’utilisateur groupées pandas ignorent les partitions vides
  • [SPARK-28012][SQL] La fonction définie par l’utilisateur Hive prend en charge l’expression pliable de type struct
  • [SPARK-28164] Correction de la description de l’utilisation de start-slave.sh
  • [SPARK-27100][SQL] Utiliser Array au lieu de Seq dans FilePartition pour empêcher StackOverflowError
  • [SPARK-28154][ML] Résolution GMM de la mise en cache double

Mises à jour de maintenance

Consultez Mises à jour de maintenance de Databricks Runtime 6.0.

Environnement du système

  • Système d’exploitation : Ubuntu 16.04.6 LTS
  • Java : 1.8.0_232
  • Scala : 2.11.12
  • Python : 3.7.3
  • R : R version 3.6.1 (2019-07-05)
  • Delta Lake : 0.3.0

Notes

Bien que Scala 2.12 soit disponible en tant que fonctionnalité expérimentale dans Apache Spark 2.4, il n’est pas pris en charge dans Databricks Runtime 6.0.

Bibliothèques Python installées

Bibliothèque Version Bibliothèque Version Bibliothèque Version
asn1crypto 0.24.0 backcall 0.1.0 boto 2.49.0
boto3 1.9.162 botocore 1.12.163 certifi 2019.3.9
cffi 1.12.2 chardet 3.0.4 cryptography 2.6.1
cycler 0.10.0 Cython 0.29.6 decorator 4.4.0
docutils 0.14 idna 2.8 ipython 7.4.0
ipython-genutils 0.2.0 jedi 0.13.3 jmespath 0.9.4
kiwisolver 1.1.0 matplotlib 3.0.3 numpy 1.16.2
pandas 0.24.2 parso 0.3.4 patsy 0.5.1
pexpect 4.6.0 pickleshare 0.7.5 pip 19.0.3
prompt-toolkit 2.0.9 psycopg2 2.7.6.1 ptyprocess 0.6.0
pyarrow 0.13.0 pycparser 2.19 pycurl 7.43.0
Pygments 2.3.1 PyGObject 3.20.0 pyOpenSSL 19.0.0
pyparsing 2.4.2 PySocks 1.6.8 python-apt 1.1.0.b1+ubuntu0.16.04.5
python-dateutil 2.8.0 pytz 2018.9 requêtes 2.21.0
s3transfer 0.2.1 scikit-learn 0.20.3 scipy 1.2.1
seaborn 0.9.0 setuptools 40.8.0 six 1.12.0
ssh-import-id 5.5 statsmodels 0.9.0 traitlets 4.3.2
unattended-upgrades 0.1 urllib3 1.24.1 virtualenv 16.4.1
wcwidth 0.1.7 wheel 0.33.1

Bibliothèques R installées

Bibliothèque Version Bibliothèque Version Bibliothèque Version
abind 1.4-5 askpass 1.1 assertthat 0.2.1
backports 1.1.3 base 3.6.1 base64enc 0.1-3
BH 1.69.0-1 bit 1.1-14 bit64 0.9-7
bitops 1.0-6 objet BLOB 1.1.1 boot 1.3-23
brew 1.0-6 callr 3.2.0 voiture 3.0-2
carData 3.0-2 caret 6.0-82 cellranger 1.1.0
chron 2.3-53 class 7.3-15 cli 1.1.0
clipr 0.5.0 clisymbols 1.2.0 cluster 2.1.0
codetools 0.2-16 colorspace 1.4-1 commonmark 1.7
compiler 3.6.1 config 0.3 crayon 1.3.4
curl 3.3 data.table 1.12.0 jeux de données 3.6.1
DBI 1.0.0 dbplyr 1.3.0 desc 1.2.0
devtools 2.0.1 digest 0.6.18 doMC 1.3.5
dplyr 0.8.0.1 ellipsis 0.1.0 fansi 0.4.0
forcats 0.4.0 foreach 1.4.4 foreign 0.8-72
forge 0.2.0 fs 1.2.7 gbm 2.1.5
generics 0.0.2 ggplot2 3.1.0 gh 1.0.1
git2r 0.25.2 glmnet 2.0-16 glue 1.3.1
gower 0.2.0 graphics 3.6.1 grDevices 3.6.1
grid 3.6.1 gridExtra 2.3 gsubfn 0.7
gtable 0.3.0 h2o 3.22.1.1 haven 2.1.0
hms 0.4.2 htmltools 0.3.6 htmlwidgets 1.3
httr 1.4.0 hwriter 1.3.2 hwriterPlus 1.0-3
ini 0.3.1 ipred 0.9-8 iterators 1.0.10
jsonlite 1.6 KernSmooth 2.23-15 labeling 0.3
lattice 0.20-38 lava 1.6.5 lazyeval 0.2.2
littler 0.3.7 lme4 1.1-21 lubridate 1.7.4
magrittr 1.5 mapproj 1.2.6 cartes 3.3.0
maptools 0.9-5 MASS 7.3-51.4 Matrix 1.2-17
MatrixModels 0.4-1 memoise 1.1.0 methods 3.6.1
mgcv 1.8-28 mime 0,6 minqa 1.2.4
ModelMetrics 1.2.2 munsell 0.5.0 mvtnorm 1.0-10
nlme 3.1-141 nloptr 1.2.1 nnet 7.3-12
numDeriv 2016.8-1 openssl 1.3 openxlsx 4.1.0
parallel 3.6.1 pbkrtest 0.4-7 pillar 1.3.1
pkgbuild 1.0.3 pkgconfig 2.0.2 pkgKitten 0.1.4
pkgload 1.0.2 plogr 0.2.0 plyr 1.8.4
praise 1.0.0 prettyunits 1.0.2 pROC 1.14.0
processx 3.3.0 prodlim 2018.04.18 progress 1.2.0
proto 1.0.0 ps 1.3.0 purrr 0.3.2
quantreg 5.38 R.methodsS3 1.7.1 R.oo 1.22.0
R.utils 2.8.0 r2d3 0.2.3 R6 2.4.0
randomForest 4.6-14 rappdirs 0.3.1 rcmdcheck 1.3.2
RColorBrewer 1.1-2 Rcpp 1.0.1 RcppEigen 0.3.3.5.0
RcppRoll 0.3.0 RCurl 1.95-4.12 readr 1.3.1
readxl 1.3.1 recipes 0.1.5 rematch 1.0.1
remotes 2.0.2 reshape2 1.4.3 rio 0.5.16
rlang 0.3.3 RODBC 1.3-15 roxygen2 6.1.1
rpart 4.1-15 rprojroot 1.3-2 Rserve 1.8-6
RSQLite 2.1.1 rstudioapi 0.10 scales 1.0.0
sessioninfo 1.1.1 sp 1.3-1 sparklyr 1.0.0
SparkR 2.4.4 SparseM 1.77 spatial 7.3-11
splines 3.6.1 sqldf 0.4-11 SQUAREM 2017.10-1
statmod 1.4.30 stats 3.6.1 stats4 3.6.1
stringi 1.4.3 stringr 1.4.0 survival 2.44-1.1
sys 3.1 tcltk 3.6.1 TeachingDemos 2,10
testthat 2.0.1 tibble 2.1.1 tidyr 0.8.3
tidyselect 0.2.5 timeDate 3043.102 tools 3.6.1
usethis 1.4.0 utf8 1.1.4 utils 3.6.1
viridisLite 0.3.0 whisker 0.3-2 withr 2.1.2
xml2 1.2.0 xopen 1.0.0 yaml 2.2.0
zip 2.0.1

Bibliothèques Java et Scala installées (version de cluster Scala 2.11)

ID de groupe ID d’artefact Version
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.8.10
com.amazonaws aws-java-sdk-autoscaling 1.11.595
com.amazonaws aws-java-sdk-cloudformation 1.11.595
com.amazonaws aws-java-sdk-cloudfront 1.11.595
com.amazonaws aws-java-sdk-cloudhsm 1.11.595
com.amazonaws aws-java-sdk-cloudsearch 1.11.595
com.amazonaws aws-java-sdk-cloudtrail 1.11.595
com.amazonaws aws-java-sdk-cloudwatch 1.11.595
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.11.595
com.amazonaws aws-java-sdk-codedeploy 1.11.595
com.amazonaws aws-java-sdk-cognitoidentity 1.11.595
com.amazonaws aws-java-sdk-cognitosync 1.11.595
com.amazonaws aws-java-sdk-config 1.11.595
com.amazonaws aws-java-sdk-core 1.11.595
com.amazonaws aws-java-sdk-datapipeline 1.11.595
com.amazonaws aws-java-sdk-directconnect 1.11.595
com.amazonaws aws-java-sdk-directory 1.11.595
com.amazonaws aws-java-sdk-dynamodb 1.11.595
com.amazonaws aws-java-sdk-ec2 1.11.595
com.amazonaws aws-java-sdk-ecs 1.11.595
com.amazonaws aws-java-sdk-efs 1.11.595
com.amazonaws aws-java-sdk-elasticache 1.11.595
com.amazonaws aws-java-sdk-elasticbeanstalk 1.11.595
com.amazonaws aws-java-sdk-elasticloadbalancing 1.11.595
com.amazonaws aws-java-sdk-elastictranscoder 1.11.595
com.amazonaws aws-java-sdk-emr 1.11.595
com.amazonaws aws-java-sdk-glacier 1.11.595
com.amazonaws aws-java-sdk-glue 1.11.595
com.amazonaws aws-java-sdk-iam 1.11.595
com.amazonaws aws-java-sdk-importexport 1.11.595
com.amazonaws aws-java-sdk-kinesis 1.11.595
com.amazonaws aws-java-sdk-kms 1.11.595
com.amazonaws aws-java-sdk-lambda 1.11.595
com.amazonaws aws-java-sdk-logs 1.11.595
com.amazonaws aws-java-sdk-machinelearning 1.11.595
com.amazonaws aws-java-sdk-opsworks 1.11.595
com.amazonaws aws-java-sdk-rds 1.11.595
com.amazonaws aws-java-sdk-redshift 1.11.595
com.amazonaws aws-java-sdk-route53 1.11.595
com.amazonaws aws-java-sdk-s3 1.11.595
com.amazonaws aws-java-sdk-ses 1.11.595
com.amazonaws aws-java-sdk-simpledb 1.11.595
com.amazonaws aws-java-sdk-simpleworkflow 1.11.595
com.amazonaws aws-java-sdk-sns 1.11.595
com.amazonaws aws-java-sdk-sqs 1.11.595
com.amazonaws aws-java-sdk-ssm 1.11.595
com.amazonaws aws-java-sdk-storagegateway 1.11.595
com.amazonaws aws-java-sdk-sts 1.11.595
com.amazonaws aws-java-sdk-support 1.11.595
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.11.595
com.amazonaws jmespath-java 1.11.595
com.carrotsearch hppc 0.7.2
com.chuusai shapeless_2.11 2.3.2
com.clearspring.analytics flux 2.7.0
com.databricks Rserve 1.8-3
com.databricks dbml-local_2.11 0.5.0-db8-spark2.4
com.databricks dbml-local_2.11-tests 0.5.0-db8-spark2.4
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.11 0.4.15-9
com.databricks.scalapb scalapb-runtime_2.11 0.4.15-9
com.esotericsoftware kryo-shaded 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml classmate 1.0.0
com.fasterxml.jackson.core jackson-annotations 2.6.7
com.fasterxml.jackson.core jackson-core 2.6.7
com.fasterxml.jackson.core jackson-databind 2.6.7.1
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.6.7
com.fasterxml.jackson.datatype jackson-datatype-joda 2.6.7
com.fasterxml.jackson.module jackson-module-paranamer 2.6.7
com.fasterxml.jackson.module jackson-module-scala_2.11 2.6.7.1
com.github.fommil jniloader 1.1
com.github.fommil.netlib core 1.1.2
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java-natives 1.1
com.github.fommil.netlib native_system-java 1.1
com.github.fommil.netlib native_system-java-natives 1.1
com.github.fommil.netlib netlib-native_ref-linux-x86_64-natives 1.1
com.github.fommil.netlib netlib-native_system-linux-x86_64-natives 1.1
com.github.luben zstd-jni 1.3.2-2
com.github.rwl jtransforms 2.4.0
com.google.code.findbugs jsr305 2.0.1
com.google.code.gson gson 2.2.4
com.google.guava guava 15.0
com.google.protobuf protobuf-java 2.6.1
com.googlecode.javaewah JavaEWAH 0.3.2
com.h2database h2 1.3.174
com.jcraft jsch 0.1.50
com.jolbox bonecp 0.8.0.RELEASE
com.microsoft.azure azure-data-lake-store-sdk 2.2.8
com.microsoft.azure azure-storage 7.0.0
com.microsoft.sqlserver mssql-jdbc 6.2.2.jre8
com.ning compress-lzf 1.0.3
com.sun.mail javax.mail 1.5.2
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.11 0.3
com.twitter chill-java 0.9.3
com.twitter chill_2.11 0.9.3
com.twitter parquet-hadoop-bundle 1.6.0
com.twitter util-app_2.11 6.23.0
com.twitter util-core_2.11 6.23.0
com.twitter util-jvm_2.11 6.23.0
com.typesafe config 1.2.1
com.typesafe.scala-logging scala-logging-api_2.11 2.1.2
com.typesafe.scala-logging scala-logging-slf4j_2.11 2.1.2
com.univocity univocity-parsers 2.7.3
com.vlkan flatbuffers 1.2.0-3f79e055
com.zaxxer HikariCP 3.1.0
commons-beanutils commons-beanutils 1.9.3
commons-cli commons-cli 1.2
commons-codec commons-codec 1,10
commons-collections commons-collections 3.2.2
commons-configuration commons-configuration 1.6
commons-dbcp commons-dbcp 1.4
commons-digester commons-digester 1.8
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.4
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-net commons-net 3.1
commons-pool commons-pool 1.5.4
info.ganglia.gmetric4j gmetric4j 1.0.7
io.airlift aircompressor 0.10
io.dropwizard.metrics metrics-core 3.1.5
io.dropwizard.metrics metrics-ganglia 3.1.5
io.dropwizard.metrics metrics-graphite 3.1.5
io.dropwizard.metrics metrics-healthchecks 3.1.5
io.dropwizard.metrics metrics-jetty9 3.1.5
io.dropwizard.metrics metrics-json 3.1.5
io.dropwizard.metrics metrics-jvm 3.1.5
io.dropwizard.metrics metrics-log4j 3.1.5
io.dropwizard.metrics metrics-servlets 3.1.5
io.netty netty 3.9.9.Final
io.netty netty-all 4.1.17.Final
javax.activation activation 1.1.1
javax.annotation javax.annotation-api 1.2
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.servlet javax.servlet-api 3.1.0
javax.servlet.jsp jsp-api 2.1
javax.transaction jta 1.1
javax.validation validation-api 1.1.0.Final
javax.ws.rs javax.ws.rs-api 2.0.1
javax.xml.bind jaxb-api 2.2.2
javax.xml.stream stax-api 1.0-2
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.9.3
junit junit 4,12
log4j apache-log4j-extras 1.2.17
log4j log4j 1.2.17
net.hydromatic eigenbase-properties 1.1.5
net.razorvine pyrolite 4.13
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.5
net.snowflake snowflake-jdbc 3.6.15
net.snowflake spark-snowflake_2.11 2.4.10-spark_2.4
net.sourceforge.f2j arpack_combined_all 0.1
org.acplt oncrpc 1.0.7
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.4
org.antlr antlr4-runtime 4,7
org.antlr stringtemplate 3.2.1
org.apache.ant ant 1.9.2
org.apache.ant ant-jsch 1.9.2
org.apache.ant ant-launcher 1.9.2
org.apache.arrow arrow-format 0.10.0
org.apache.arrow arrow-memory 0.10.0
org.apache.arrow arrow-vector 0.10.0
org.apache.avro avro 1.8.2
org.apache.avro avro-ipc 1.8.2
org.apache.avro avro-mapred-hadoop2 1.8.2
org.apache.calcite calcite-avatica 1.2.0-incubating
org.apache.calcite calcite-core 1.2.0-incubating
org.apache.calcite calcite-linq4j 1.2.0-incubating
org.apache.commons commons-compress 1.8.1
org.apache.commons commons-crypto 1.0.0
org.apache.commons commons-lang3 3,5
org.apache.commons commons-math3 3.4.1
org.apache.curator curator-client 2.7.1
org.apache.curator curator-framework 2.7.1
org.apache.curator curator-recipes 2.7.1
org.apache.derby derby 10.12.1.1
org.apache.directory.api api-asn1-api 1.0.0-M20
org.apache.directory.api api-util 1.0.0-M20
org.apache.directory.server apacheds-i18n 2.0.0-M15
org.apache.directory.server apacheds-kerberos-codec 2.0.0-M15
org.apache.hadoop hadoop-annotations 2.7.3
org.apache.hadoop hadoop-auth 2.7.3
org.apache.hadoop hadoop-client 2.7.3
org.apache.hadoop hadoop-common 2.7.3
org.apache.hadoop hadoop-hdfs 2.7.3
org.apache.hadoop hadoop-mapreduce-client-app 2.7.3
org.apache.hadoop hadoop-mapreduce-client-common 2.7.3
org.apache.hadoop hadoop-mapreduce-client-core 2.7.3
org.apache.hadoop hadoop-mapreduce-client-jobclient 2.7.3
org.apache.hadoop hadoop-mapreduce-client-shuffle 2.7.3
org.apache.hadoop hadoop-yarn-api 2.7.3
org.apache.hadoop hadoop-yarn-client 2.7.3
org.apache.hadoop hadoop-yarn-common 2.7.3
org.apache.hadoop hadoop-yarn-server-common 2.7.3
org.apache.htrace htrace-core 3.1.0-incubating
org.apache.httpcomponents httpclient 4.5.6
org.apache.httpcomponents httpcore 4.4.10
org.apache.ivy ivy 2.4.0
org.apache.orc orc-core-nohive 1.5.5
org.apache.orc orc-mapreduce-nohive 1.5.5
org.apache.orc orc-shims 1.5.5
org.apache.parquet parquet-column 1.10.1.2-databricks3
org.apache.parquet parquet-common 1.10.1.2-databricks3
org.apache.parquet parquet-encoding 1.10.1.2-databricks3
org.apache.parquet parquet-format 2.4.0
org.apache.parquet parquet-hadoop 1.10.1.2-databricks3
org.apache.parquet parquet-jackson 1.10.1.2-databricks3
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.9.3
org.apache.xbean xbean-asm6-shaded 4.8
org.apache.zookeeper zookeeper 3.4.6
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-jaxrs 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.jackson jackson-xc 1.9.13
org.codehaus.janino commons-compiler 3.0.10
org.codehaus.janino janino 3.0.10
org.datanucleus datanucleus-api-jdo 3.2.6
org.datanucleus datanucleus-core 3.2.10
org.datanucleus datanucleus-rdbms 3.2.9
org.eclipse.jetty jetty-client 9.3.27.v20190418
org.eclipse.jetty jetty-continuation 9.3.27.v20190418
org.eclipse.jetty jetty-http 9.3.27.v20190418
org.eclipse.jetty jetty-io 9.3.27.v20190418
org.eclipse.jetty jetty-jndi 9.3.27.v20190418
org.eclipse.jetty jetty-plus 9.3.27.v20190418
org.eclipse.jetty jetty-proxy 9.3.27.v20190418
org.eclipse.jetty jetty-security 9.3.27.v20190418
org.eclipse.jetty jetty-server 9.3.27.v20190418
org.eclipse.jetty jetty-servlet 9.3.27.v20190418
org.eclipse.jetty jetty-servlets 9.3.27.v20190418
org.eclipse.jetty jetty-util 9.3.27.v20190418
org.eclipse.jetty jetty-webapp 9.3.27.v20190418
org.eclipse.jetty jetty-xml 9.3.27.v20190418
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.4.0-b34
org.glassfish.hk2 hk2-locator 2.4.0-b34
org.glassfish.hk2 hk2-utils 2.4.0-b34
org.glassfish.hk2 osgi-resource-locator 1.0.1
org.glassfish.hk2.external aopalliance-repackaged 2.4.0-b34
org.glassfish.hk2.external javax.inject 2.4.0-b34
org.glassfish.jersey.bundles.repackaged jersey-guava 2.22.2
org.glassfish.jersey.containers jersey-container-servlet 2.22.2
org.glassfish.jersey.containers jersey-container-servlet-core 2.22.2
org.glassfish.jersey.core jersey-client 2.22.2
org.glassfish.jersey.core jersey-common 2.22.2
org.glassfish.jersey.core jersey-server 2.22.2
org.glassfish.jersey.media jersey-media-jaxb 2.22.2
org.hamcrest hamcrest-core 1.3
org.hamcrest hamcrest-library 1.3
org.hibernate hibernate-validator 5.1.1.Final
org.iq80.snappy snappy 0.2
org.javassist javassist 3.18.1-GA
org.jboss.logging jboss-logging 3.1.3.GA
org.jdbi jdbi 2.63.1
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.11 3.5.3
org.json4s json4s-core_2.11 3.5.3
org.json4s json4s-jackson_2.11 3.5.3
org.json4s json4s-scalap_2.11 3.5.3
org.lz4 lz4-java 1.4.0
org.mariadb.jdbc mariadb-java-client 2.1.2
org.mockito mockito-core 1.10.19
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.1.4
org.roaringbitmap RoaringBitmap 0.7.45
org.roaringbitmap shims 0.7.45
org.rocksdb rocksdbjni 6.2.2
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.11 2.11.12
org.scala-lang scala-library_2.11 2.11.12
org.scala-lang scala-reflect_2.11 2.11.12
org.scala-lang.modules scala-parser-combinators_2.11 1.1.0
org.scala-lang.modules scala-xml_2.11 1.0.5
org.scala-sbt test-interface 1.0
org.scalacheck scalacheck_2.11 1.12.5
org.scalactic scalactic_2.11 3.0.3
org.scalanlp breeze-macros_2.11 0.13.2
org.scalanlp breeze_2.11 0.13.2
org.scalatest scalatest_2.11 3.0.3
org.slf4j jcl-over-slf4j 1.7.16
org.slf4j jul-to-slf4j 1.7.16
org.slf4j slf4j-api 1.7.16
org.slf4j slf4j-log4j12 1.7.16
org.spark-project.hive hive-beeline 1.2.1.spark2
org.spark-project.hive hive-cli 1.2.1.spark2
org.spark-project.hive hive-jdbc 1.2.1.spark2
org.spark-project.hive hive-metastore 1.2.1.spark2
org.spark-project.spark unused 1.0.0
org.spire-math spire-macros_2.11 0.13.0
org.spire-math spire_2.11 0.13.0
org.springframework spring-core 4.1.4.RELEASE
org.springframework spring-test 4.1.4.RELEASE
org.tukaani xz 1.5
org.typelevel machinist_2.11 0.6.1
org.typelevel macro-compat_2.11 1.1.1
org.xerial sqlite-jdbc 3.8.11.2
org.xerial.snappy snappy-java 1.1.7.3
org.yaml snakeyaml 1.16
oro oro 2.0.8
software.amazon.ion ion-java 1.0.2
stax stax-api 1.0.1
xmlenc xmlenc 0.52