Databricks Runtime 15.2
توفر ملاحظات الإصدار التالية معلومات حول Databricks Runtime 15.2، المشغل بواسطة Apache Spark 3.5.0.
أصدرت Databricks هذه الصور في مايو 2024.
التغيرات السلوكية
تقليل استهلاك الذاكرة عند فشل مهام Spark مع حدوث Resubmitted
خطأ
في Databricks Runtime 15.2 والإحدث، تكون القيمة المرجعة لأسلوب Spark TaskInfo.accumulables()
فارغة عندما تفشل المهام مع حدوث Resubmitted
خطأ. في السابق، أرجع الأسلوب قيم محاولة مهمة ناجحة سابقة. يؤثر تغيير السلوك هذا على المستهلكين التالين:
- مهام Spark التي تستخدم
EventLoggingListener
الفئة . - مستمعو Spark المخصصون.
لاستعادة السلوك السابق، قم بتعيين spark.scheduler.dropTaskInfoAccumulablesOnTaskCompletion.enabled
إلى false
.
تم تعطيل عرض إصدارات خطة تنفيذ الاستعلام التكيفي
لتقليل استهلاك الذاكرة، يتم الآن تعطيل إصدارات خطة تنفيذ الاستعلام التكيفي (AQE) بشكل افتراضي في واجهة مستخدم Spark. لتمكين عرض إصدارات خطة AQE في واجهة مستخدم Spark، قم بتعيين spark.databricks.sql.aqe.showPlanChangesInUI.enabled
إلى true
.
يتم خفض الحد على الاستعلامات التي تم الاحتفاظ بها لتقليل استخدام ذاكرة واجهة مستخدم Spark
في Databricks Runtime 15.2 والإحدث، لتقليل الذاكرة التي تستهلكها واجهة مستخدم Spark في حساب Azure Databricks، يتم خفض الحد الأقصى لعدد الاستعلامات المرئية في واجهة المستخدم من 1000 إلى 100. لتغيير الحد، قم بتعيين قيمة جديدة باستخدام spark.sql.ui.retainedExecutions
تكوين Spark.
DESCRIBE HISTORY
يعرض الآن أعمدة التجميع للجداول التي تستخدم تكوين أنظمة المجموعات السائلة
عند تشغيل DESCRIBE HISTORY
استعلام، operationParameters
يعرض العمود حقلا clusterBy
بشكل افتراضي لعمليات CREATE OR REPLACE
و OPTIMIZE
. بالنسبة لجدول Delta الذي يستخدم التجميع السائل، clusterBy
يتم ملء الحقل بأعمدة تجميع الجدول. إذا لم يستخدم الجدول تكوين أنظمة المجموعات السائلة، يكون الحقل فارغا.
ميزات وتحسينات جديدة
دعم المفاتيح الأساسية والخارجية هو GA
يتوفر دعم المفاتيح الأساسية والخارجية في Databricks Runtime بشكل عام. لمعرفة كيفية إضافة مفاتيح أساسية وأجنبية إلى الجداول أو طرق العرض، راجع عبارة CONSTRAINT.
التجميع السائل هو GA
يتوفر الآن دعم التجميع السائل بشكل عام باستخدام Databricks Runtime 15.2 والإصدارات الأحدث. راجع استخدام التجميع السائل لجداول Delta.
توسيع النوع في المعاينة العامة
يمكنك الآن تمكين توسيع النوع على الجداول المدعومة من Delta Lake. تسمح الجداول التي تم تمكين توسيع النوع فيها بتغيير نوع الأعمدة إلى نوع بيانات أوسع دون إعادة كتابة ملفات البيانات الأساسية. راجع توسيع النوع.
تمت إضافة عبارة تطور المخطط إلى بناء جملة دمج SQL
يمكنك الآن إضافة WITH SCHEMA EVOLUTION
عبارة إلى عبارة دمج SQL لتمكين تطور المخطط للعملية. راجع بناء جملة تطور المخطط ل SQL.
تتوفر مصادر بيانات PySpark في المعاينة العامة
يمكن إنشاء PySpark DataSources باستخدام Python (PySpark) DataSource API، والتي تمكن القراءة من مصادر البيانات المخصصة والكتابة إلى متلقي البيانات المخصصة في Apache Spark باستخدام Python. راجع ما هو مصدر بيانات PySpark؟
applyInPandas وmapInPandas متوفرة الآن على حساب كتالوج Unity مع وضع الوصول المشترك
كجزء من إصدار صيانة Databricks Runtime 14.3 LTS، applyInPandas
mapInPandas
يتم الآن دعم أنواع UDF في وضع الوصول المشترك حساب تشغيل Databricks Runtime 14.3 وما فوق.
استخدم dbutils.widgets.getAll() للحصول على جميع عناصر واجهة المستخدم في دفتر ملاحظات
استخدم dbutils.widgets.getAll()
للحصول على جميع قيم عنصر واجهة المستخدم في دفتر ملاحظات. هذا مفيد بشكل خاص عند تمرير قيم عناصر واجهة مستخدم متعددة إلى استعلام Spark SQL.
دعم المخزون الفراغي
يمكنك الآن تحديد مخزون من الملفات التي يجب مراعاتها عند تشغيل VACUUM
الأمر على جدول Delta. راجع مستندات دلتا OSS.
إصلاح الأخطاء
يتم الآن عرض خطط الاستعلام في واجهة مستخدم SQL بشكل صحيح PhotonWriteStage
عند عرضها في واجهة مستخدم SQL، write
تظهر PhotonWriteStage
الأوامر في خطط الاستعلام بشكل غير صحيح كعامل تشغيل. مع هذا الإصدار، يتم تحديث واجهة المستخدم لإظهارها PhotonWriteStage
كمرحلة. هذا تغيير واجهة المستخدم فقط ولا يؤثر على كيفية تشغيل الاستعلامات.
يتم تحديث Ray لإصلاح المشكلات المتعلقة ببدء تشغيل مجموعات Ray
يتضمن هذا الإصدار إصدارا مصححا من Ray يصلح تغييرا فاصلا يمنع مجموعات Ray من البدء بوقت تشغيل Databricks التعلم الآلي. يضمن هذا التغيير أن وظيفة Ray مطابقة لإصدارات Databricks Runtime السابقة إلى 15.2.
يتم تحديث GraphFrames لإصلاح النتائج غير الصحيحة باستخدام Spark 3.5
يتضمن هذا الإصدار تحديثا لحزمة GraphFrames لإصلاح المشكلات التي تتسبب في نتائج غير صحيحة لبعض الخوارزميات باستخدام GraphFrames وSpark 3.5.
فئة الخطأ المصححة للدالتين DataFrame.sort()
و DataFrame.sortWithinPartitions()
يتضمن هذا الإصدار تحديثا ل PySpark DataFrame.sort()
والوظائف DataFrame.sortWithinPartitions()
لضمان ZERO_INDEX
طرح فئة الخطأ عند 0
تمريرها كوسيطة الفهرس. في السابق، تم طرح فئة INDEX_NOT_POSITIVE
الخطأ.
يتم تخفيض ipywidgets من 8.0.4 إلى 7.7.2
لإصلاح الأخطاء التي أدخلتها ترقية ipywidgets إلى 8.0.4 في Databricks Runtime 15.0، يتم تخفيض ipywidgets إلى 7.7.2 في Databricks Runtime 15.2. هذا هو نفس الإصدار المضمن في إصدارات وقت تشغيل Databricks السابقة.
ترقيات المكتبة
- مكتبات Python التي تمت ترقيتها:
- GitPython من 3.1.42 إلى 3.1.43
- google-api-core من 2.17.1 إلى 2.18.0
- google-auth من 2.28.1 إلى 2.29.0
- google-cloud-storage من 2.15.0 إلى 2.16.0
- googleapis-common-protos من 1.62.0 إلى 1.63.0
- ipywidgets من 8.0.4 إلى 7.7.2
- mlflow-skinny من 2.11.1 إلى 2.11.3
- s3transfer من 0.10.0 إلى 0.10.1
- sqlparse من 0.4.4 إلى 0.5.0
- typing_extensions من 4.7.1 إلى 4.10.0
- مكتبات R التي تمت ترقيتها:
- مكتبات Java التي تمت ترقيتها:
- com.amazonaws.aws-java-sdk-autoscaling من 1.12.390 إلى 1.12.610
- com.amazonaws.aws-java-sdk-cloudformation من 1.12.390 إلى 1.12.610
- com.amazonaws.aws-java-sdk-cloudfront من 1.12.390 إلى 1.12.610
- com.amazonaws.aws-java-sdk-cloudhsm من 1.12.390 إلى 1.12.610
- com.amazonaws.aws-java-sdk-cloudsearch من 1.12.390 إلى 1.12.610
- com.amazonaws.aws-java-sdk-cloudtrail من 1.12.390 إلى 1.12.610
- com.amazonaws.aws-java-sdk-cloudwatch من 1.12.390 إلى 1.12.610
- com.amazonaws.aws-java-sdk-cloudwatchmetrics من 1.12.390 إلى 1.12.610
- com.amazonaws.aws-java-sdk-codedeploy من 1.12.390 إلى 1.12.610
- com.amazonaws.aws-java-sdk-cognitoidentity من 1.12.390 إلى 1.12.610
- com.amazonaws.aws-java-sdk-cognitosync من 1.12.390 إلى 1.12.610
- com.amazonaws.aws-java-sdk-config من 1.12.390 إلى 1.12.610
- com.amazonaws.aws-java-sdk-core من 1.12.390 إلى 1.12.610
- com.amazonaws.aws-java-sdk-datapipeline من 1.12.390 إلى 1.12.610
- com.amazonaws.aws-java-sdk-directconnect من 1.12.390 إلى 1.12.610
- com.amazonaws.aws-java-sdk-directory من 1.12.390 إلى 1.12.610
- com.amazonaws.aws-java-sdk-dynamodb من 1.12.390 إلى 1.12.610
- com.amazonaws.aws-java-sdk-ec2 من 1.12.390 إلى 1.12.610
- com.amazonaws.aws-java-sdk-ecs من 1.12.390 إلى 1.12.610
- com.amazonaws.aws-java-sdk-efs من 1.12.390 إلى 1.12.610
- com.amazonaws.aws-java-sdk-elasticache من 1.12.390 إلى 1.12.610
- com.amazonaws.aws-java-sdk-elasticbeanstalk من 1.12.390 إلى 1.12.610
- com.amazonaws.aws-java-sdk-elasticloadbalancing من 1.12.390 إلى 1.12.610
- com.amazonaws.aws-java-sdk-elastictranscoder من 1.12.390 إلى 1.12.610
- com.amazonaws.aws-java-sdk-emr من 1.12.390 إلى 1.12.610
- com.amazonaws.aws-java-sdk-glacier من 1.12.390 إلى 1.12.610
- com.amazonaws.aws-java-sdk-glue من 1.12.390 إلى 1.12.610
- com.amazonaws.aws-java-sdk-iam من 1.12.390 إلى 1.12.610
- com.amazonaws.aws-java-sdk-importexport من 1.12.390 إلى 1.12.610
- com.amazonaws.aws-java-sdk-kinesis من 1.12.390 إلى 1.12.610
- com.amazonaws.aws-java-sdk-kms من 1.12.390 إلى 1.12.610
- com.amazonaws.aws-java-sdk-lambda من 1.12.390 إلى 1.12.610
- com.amazonaws.aws-java-sdk-logs من 1.12.390 إلى 1.12.610
- com.amazonaws.aws-java-sdk-machinelearning من 1.12.390 إلى 1.12.610
- com.amazonaws.aws-java-sdk-opsworks من 1.12.390 إلى 1.12.610
- com.amazonaws.aws-java-sdk-rds من 1.12.390 إلى 1.12.610
- com.amazonaws.aws-java-sdk-redshift من 1.12.390 إلى 1.12.610
- com.amazonaws.aws-java-sdk-route53 من 1.12.390 إلى 1.12.610
- com.amazonaws.aws-java-sdk-s3 من 1.12.390 إلى 1.12.610
- com.amazonaws.aws-java-sdk-ses من 1.12.390 إلى 1.12.610
- com.amazonaws.aws-java-sdk-simpledb من 1.12.390 إلى 1.12.610
- com.amazonaws.aws-java-sdk-simpleworkflow من 1.12.390 إلى 1.12.610
- com.amazonaws.aws-java-sdk-sns من 1.12.390 إلى 1.12.610
- com.amazonaws.aws-java-sdk-sqs من 1.12.390 إلى 1.12.610
- com.amazonaws.aws-java-sdk-ssm من 1.12.390 إلى 1.12.610
- com.amazonaws.aws-java-sdk-storagegateway من 1.12.390 إلى 1.12.610
- com.amazonaws.aws-java-sdk-sts من 1.12.390 إلى 1.12.610
- com.amazonaws.aws-java-sdk-support من 1.12.390 إلى 1.12.610
- com.amazonaws.aws-java-sdk-workspaces من 1.12.390 إلى 1.12.610
- com.amazonaws.jmespath-java من 1.12.390 إلى 1.12.610
Apache Spark
يتضمن Databricks Runtime 15.2 Apache Spark 3.5.0. يتضمن هذا الإصدار جميع إصلاحات Spark وتحسيناته المضمنة في Databricks Runtime 15.1، بالإضافة إلى إصلاحات الأخطاء الإضافية والتحسينات التالية التي تم إجراؤها على Spark:
- [SPARK-47941] [SC-163568] [SS] [الاتصال] نشر أخطاء تهيئة عامل ForeachBatch للمستخدمين ل PySpark
- [SPARK-47412] [SC-163455] [SQL] إضافة دعم الترتيب ل LPad/RPad.
- [SPARK-47907] [SC-163408] [SQL] وضع الانفجار تحت تكوين
- [SPARK-46820] [SC-157093] [PYTHON] إصلاح تراجع رسالة الخطأ عن طريق الاستعادة
new_msg
- [SPARK-47602] [SPARK-47577] [SPARK-47598] [SPARK-47577] مديرو Core/MLLib/Resource: ترحيل التسجيل المنظم
- [SPARK-47890] [SC-163324] [CONNECT] [PYTHON] إضافة دالات متغيرة إلى Scala وPython.
- [SPARK-47894] [SC-163086] [CORE] [WEBUI] إضافة
Environment
صفحة إلى واجهة المستخدم الرئيسية - [SPARK-47805] [SC-163459] [SS] تنفيذ TTL ل MapState
- [SPARK-47900] [SC-163326] إصلاح التحقق من الترتيب الضمني (UTF8_BINARY)
- [SPARK-47902] [SC-163316] [SQL] جعل تعبيرات حساب الوقت الحالي* قابلة للطي
- [SPARK-47845] [SC-163315] [SQL] [PYTHON] [CONNECT] نوع عمود الدعم في دالة التقسيم ل scala وpython
- [SPARK-47754] [SC-162144] [SQL] Postgres: دعم قراءة الصفائف متعددة الأبعاد
- [SPARK-47416] [SC-163001] [SQL] إضافة دالات جديدة إلى CollationBenchmark #90339
- [SPARK-47839] [SC-163075] [SQL] إصلاح الخطأ التجميعي في RewriteWithExpression
- [SPARK-47821] [SC-162967] [SQL] تنفيذ تعبير is_variant_null
- [SPARK-47883] [SC-163184] [SQL] الكسول
CollectTailExec.doExecute
مع RowQueue - [SPARK-47390] [SC-163306] [SQL] يميز PostgresDialect TIMESTAMP عن TIMESTAMP_TZ
- [SPARK-47924] [SC-163282] [CORE] إضافة سجل DEBUG إلى
DiskStore.moveFileToBlock
- [SPARK-47897] [SC-163183] [SQL] [3.5] إصلاح تراجع أداء ExpressionSet في scala 2.12
- [SPARK-47565] [SC-161786] [PYTHON] مرونة تعطل تجمع عامل PySpark
- [SPARK-47885] [SC-162989] [PYTHON] [CONNECT] جعل pyspark.resource متوافقا مع pyspark-connect
- [SPARK-47887] [SC-163122] [CONNECT] إزالة الاستيراد
spark/connect/common.proto
غير المستخدم منspark/connect/relations.proto
- [SPARK-47751] [SC-161991] [PYTHON] [CONNECT] جعل pyspark.worker_utils متوافقة مع pyspark-connect
- [SPARK-47691] [SC-161760] [SQL] Postgres: دعم صفيف متعدد الأبعاد على جانب الكتابة
- [SPARK-47617] [SC-162513] [SQL] إضافة البنية الأساسية لاختبار TPC-DS للترسيبات
- [SPARK-47356] [SC-162858] [SQL] إضافة دعم ConcatWs و Elt (جميع الترتيبات)
- [SPARK-47543] [SC-161234] [CONNECT] [PYTHON] الاستدلال
dict
منMapType
Pandas DataFrame للسماح بإنشاء DataFrame - [SPARK-47863] [SC-162974] [SQL] إصلاح startsWithWithWith collation-aware implementation for ICU
- [SPARK-47867] [SC-162966] [SQL] متغير الدعم في فحص JSON.
- [SPARK-47366] [SC-162475] [SQL] [PYTHON] إضافة VariantVal ل PySpark
- [SPARK-47803] [SC-162726] [SQL] دعم الإرسال إلى متغير.
- [SPARK-47769] [SC-162841] [SQL] إضافة تعبير schema_of_variant_agg.
- [SPARK-47420] [SC-162842] [SQL] إصلاح إخراج الاختبار
- [SPARK-47430] [SC-161178] [SQL] دعم GROUP BY ل MapType
- [SPARK-47357] [SC-162751] [SQL] إضافة دعم ل Upper و Lower و InitCap (جميع الترتيبات)
- [SPARK-47788] [SC-162729] [SS] تأكد من نفس تقسيم التجزئة لتدفق العمليات ذات الحالة
- [SPARK-47776] [SC-162291] [SS] عدم السماح باستخدام ترتيب عدم المساواة الثنائي في المخطط الرئيسي للمشغل ذي الحالة
- [SPARK-47673] [SC-162824] [SS] تنفيذ TTL ل ListState
- [SPARK-47818] [SC-162845] [CONNECT] تقديم ذاكرة التخزين المؤقت للخطة في Spark الاتصال Planner لتحسين أداء طلبات التحليل
- [SPARK-47694] [SC-162783] [CONNECT] جعل الحد الأقصى لحجم الرسالة قابلا للتكوين على جانب العميل
- [SPARK-47274] إرجاع "[SC-162479][PYTHON][SQL] توفير المزيد من usef...
- [SPARK-47616] [SC-161193] [SQL] إضافة مستند مستخدم لتعيين أنواع بيانات Spark SQL من MySQL
- [SPARK-47862] [SC-162837] [PYTHON] [CONNECT] إصلاح إنشاء ملفات proto
- [SPARK-47849] [SC-162724] [PYTHON] [CONNECT] تغيير البرنامج النصي للإصدار لإصدار pyspark-connect
- [SPARK-47410] [SC-162518] [SQL] إعادة بناء التعليمات البرمجية UTF8String و CollationFactory
- [SPARK-47807] [SC-162505] [PYTHON] [ML] جعل pyspark.ml متوافقة مع pyspark-connect
- [SPARK-47707] [SC-161768] [SQL] معالجة خاصة لنوع JSON ل MySQL الاتصال or/J 5.x
- [SPARK-47765] إرجاع "[SC-162636][SQL] إضافة SET COLLATION إلى pars...
- [SPARK-47081] [SC-162151] [CONNECT] [متابعة] تحسين قابلية استخدام معالج التقدم
- [SPARK-47289] [SC-161877] [SQL] السماح للملحقات بتسجيل المعلومات الموسعة في خطة الشرح
- [SPARK-47274] [SC-162479] [PYTHON] [SQL] توفير سياق أكثر فائدة لأخطاء واجهة برمجة تطبيقات PySpark DataFrame
- [SPARK-47765] [SC-162636] [SQL] إضافة SET COLLATION إلى قواعد المحلل
- [SPARK-47828] [SC-162722] [CONNECT] [PYTHON]
DataFrameWriterV2.overwrite
فشل مع خطة غير صالحة - [SPARK-47812] [SC-162696] [CONNECT] دعم تسلسل SparkSession لعامل ForEachBatch
- [SPARK-47253] [SC-162698] [CORE] السماح ل LiveEventBus بالتوقف دون الاستنزاف الكامل لقائمة انتظار الأحداث
- [SPARK-47827] [SC-162625] [PYTHON] تحذيرات مفقودة للميزات المهملة
- [SPARK-47733] [SC-162628] [SS] إضافة مقاييس مخصصة لجزء عامل تشغيل transformWithState من تقدم الاستعلام
- [SPARK-47784] [SC-162623] [SS] دمج TTLMode و TimeoutMode في TimeMode واحد.
- [SPARK-47775] [SC-162319] [SQL] دعم الأنواع العددية المتبقية في مواصفات المتغير.
- [SPARK-47736] [SC-162503] [SQL] إضافة دعم ل AbstractArrayType
- [SPARK-47081] [SC-161758] [CONNECT] دعم تقدم تنفيذ الاستعلام
- [SPARK-47682] [SC-162138] [SQL] دعم الإرسال من المتغير.
- [SPARK-47802] [SC-162478] [SQL] العودة () من معنى البنية () إلى المعنى *
- [SPARK-47680] [SC-162318] [SQL] إضافة تعبير variant_explode.
- [SPARK-47809] [SC-162511] [SQL]
checkExceptionInExpression
يجب التحقق من الخطأ لكل وضع codegen - [SPARK-41811] [SC-162470] [PYTHON] [CONNECT] تنفيذ
SQLStringFormatter
باستخدامWithRelations
- [SPARK-47693] [SC-162326] [SQL] إضافة تحسين للمقارنة بالأحرف الصغيرة ل UTF8String المستخدم في ترتيب UTF8_BINARY_LCASE
- [SPARK-47541] [SC-162006] [SQL] السلاسل المجمعة في أنواع معقدة تدعم العمليات العكسية، array_join، concat، الخريطة
- [SPARK-46812] [SC-161535] [CONNECT] [PYTHON] إنشاء mapInPandas / mapInArrow دعم ResourceProfile
- [SPARK-47727] [SC-161982] [PYTHON] جعل SparkConf إلى مستوى الجذر لكل من SparkSession وSparkContext
- [SPARK-47406] [SC-159376] [SQL] معالجة TIMESTAMP و DATETIME في MYSQLDialect
- [SPARK-47081] إرجاع "[SC-161758][CONNECT] دعم الاستعلام Executi...
- [SPARK-47681] [SC-162043] [SQL] إضافة تعبير schema_of_variant.
- [SPARK-47783] [SC-162222] أضف بعض SQLSTATEs المفقودة لتنظيف YYY000 لاستخدامها...
- [SPARK-47634] [SC-161558] [SQL] إضافة دعم قديم لتعطيل تسوية مفتاح الخريطة
- [SPARK-47746] [SC-162022] تنفيذ ترميز النطاق المستند إلى الترتيبي في RocksDBStateEncoder
- [SPARK-47285] [SC-158340] [SQL] يجب أن تستخدم AdaptiveSparkPlanExec دائما context.session
- [SPARK-47643] [SC-161534] [SS] [PYTHON] إضافة اختبار pyspark لمصدر تدفق python
- [SPARK-47582] [SC-161943] [SQL] ترحيل Catalyst logInfo مع المتغيرات إلى إطار عمل تسجيل منظم
- [SPARK-47558] [SC-162007] [SS] دعم مدة البقاء (TTL) للحالة ل ValueState
- [SPARK-47358] [SC-160912] [SQL] [ترتيب] تحسين دعم التعبير المتكرر لإرجاع نوع البيانات الصحيح
- [SPARK-47504] [SC-162044] [SQL] حل AbstractDataType simpleStrings ل StringTypeCollated
- [SPARK-47719] إرجاع "[SC-161909][SQL] تغيير spark.sql.legacy.t...
- [SPARK-47657] [SC-162010] [SQL] تنفيذ دعم عامل تصفية الترتيب لكل مصدر ملف
- [SPARK-47081] [SC-161758] [CONNECT] دعم تقدم تنفيذ الاستعلام
- [SPARK-47744] [SC-161999] إضافة دعم لوحدات البايت ذات القيمة السالبة في أداة ترميز النطاق
- [SPARK-47713] [SC-162009] [SQL] [CONNECT] إصلاح فشل الانضمام الذاتي
- [SPARK-47310] [SC-161930] [SS] إضافة معيار صغير لعمليات الدمج لقيم متعددة في جزء القيمة من مخزن الحالة
- [SPARK-47700] [SC-161774] [SQL] إصلاح تنسيق رسائل الخطأ باستخدام treeNode
- [SPARK-47752] [SC-161993] [PS] [CONNECT] جعل pyspark.pandas متوافقا مع pyspark-connect
- [SPARK-47575] [SC-161402] [SPARK-47576] [SPARK-47654] تنفيذ logWarning/logInfo API في إطار عمل التسجيل المنظم
- [SPARK-47107] [SC-161201] [SS] [PYTHON] تنفيذ قارئ الأقسام لمصدر بيانات تدفق python
- [SPARK-47553] [SC-161772] [SS] إضافة دعم Java لواجهات برمجة تطبيقات مشغل transformWithState
- [SPARK-47719] [SC-161909] [SQL] تغيير spark.sql.legacy.timeParserPolicy الافتراضي إلى صحيح
- [SPARK-47655] [SC-161761] [SS] دمج المؤقت مع معالجة الحالة الأولية ل state-v2
- [SPARK-47665] [SC-161550] [SQL] استخدام SMALLINT لكتابة ShortType إلى MYSQL
- [SPARK-47210] [SC-161777] [SQL] إضافة الصب الضمني دون دعم غير محدد
- [SPARK-47653] [SC-161767] [SS] إضافة دعم للأنووع الرقمية السالبة وأداة ترميز مفتاح فحص النطاق
- [SPARK-46743] [SC-160777] [SQL] حساب الخطأ بعد الطي المستمر
- [SPARK-47525] [SC-154568] [SQL] دعم ربط ارتباط الاستعلام الفرعي على سمات الخريطة
- [SPARK-46366] [SC-151277] [SQL] استخدام التعبير WITH في BETWEEN لتجنب التعبيرات المكررة
- [SPARK-47563] [SC-161183] [SQL] إضافة تطبيع الخريطة عند الإنشاء
- [SPARK-42040] [SC-161171] [SQL] SPJ: تقديم واجهة برمجة تطبيقات جديدة لقسم إدخال V2 للإبلاغ عن إحصائيات القسم
- [SPARK-47679] [SC-161549] [SQL] استخدام
HiveConf.getConfVars
أو أسماء تكوين Apache Hive مباشرة - [SPARK-47685] [SC-161566] [SQL] استعادة دعم النوع
Stream
فيDataset#groupBy
- [SPARK-47646] [SC-161352] [SQL] جعل try_to_number إرجاع NULL للإدخل الذي تم تكوينه بشكل غير صحيح
- [SPARK-47366] [SC-161324] [PYTHON] إضافة أسماء مستعارة parse_json pyspark وإطار البيانات
- [SPARK-47491] [SC-161176] [CORE] إضافة
slf4j-api
jar إلى مسار الفئة أولا قبل الآخرين منjars
الدليل - [SPARK-47270] [SC-158741] [SQL] مشاريع Dataset.isEmpty CommandResults محليا
- [SPARK-47364] [SC-158927] [CORE] التحذير
PluginEndpoint
عند الرد على المكونات الإضافية لرسالة أحادية الاتجاه - [SPARK-47280] [SC-158350] [SQL] إزالة قيود المنطقة الزمنية ل ORACLE TIMESTAMP مع TIMEZONE
- [SPARK-47551] [SC-161542] [SQL] إضافة تعبير variant_get.
- [SPARK-47559] [SC-161255] [SQL] دعم Codegen للمتغير
parse_json
- [SPARK-47572] [SC-161351] [SQL] فرض Window partitionSpec قابل للطلب.
- [SPARK-47546] [SC-161241] [SQL] تحسين التحقق من الصحة عند قراءة Variant من Parquet
- [SPARK-47543] [SC-161234] [CONNECT] [PYTHON] الاستدلال
dict
منMapType
Pandas DataFrame للسماح بإنشاء DataFrame - [SPARK-47485] [SC-161194] [SQL] [PYTHON] [CONNECT] إنشاء عمود مع ترتيبات في واجهة برمجة تطبيقات إطار البيانات
- [SPARK-47641] [SC-161376] [SQL] تحسين الأداء ل
UnaryMinus
وAbs
- [SPARK-47631] [SC-161325] [SQL] إزالة الأسلوب غير المستخدم
SQLConf.parquetOutputCommitterClass
- [SPARK-47674] [SC-161504] [CORE] تمكين
spark.metrics.appStatusSource.enabled
بشكل افتراضي - [SPARK-47273] [SC-161162] [SS] [PYTHON] تنفيذ واجهة كاتب دفق بيانات Python.
- [SPARK-47637] [SC-161408] [SQL] استخدام errorCapturingIdentifier في المزيد من الأماكن
- [SPARK-47497] Revert "Revert "[SC-160724][SQL] Make to_csv support the output of array/struct/map/binary as pretty strings""
- [SPARK-47492] [SC-161316] [SQL] توسيع قواعد المسافة البيضاء في المعجم
- [SPARK-47664] [SC-161475] [PYTHON] [CONNECT] التحقق من صحة اسم العمود باستخدام المخطط المخزن مؤقتا
- [SPARK-47638] [SC-161339] [PS] [CONNECT] تخطي التحقق من صحة اسم العمود في PS
- [SPARK-47363] [SC-161247] [SS] الحالة الأولية دون تنفيذ قارئ الحالة لواجهة برمجة تطبيقات الحالة الإصدار 2.
- [SPARK-47447] [SC-160448] [SQL] السماح بقراءة Parquet TimestampLTZ ك TimestampNTZ
- [SPARK-47497] إرجاع "[SC-160724][SQL] جعل
to_csv
دعم إخراجarray/struct/map/binary
كسلاسل جميلة" - [SPARK-47434] [SC-160122] [WEBUI] إصلاح
statistics
الارتباط فيStreamingQueryPage
- [SPARK-46761] [SC-159045] [SQL] يجب أن تدعم السلاسل المقتبسة في مسار JSON ؟ الاحرف
- [SPARK-46915] [SC-155729] [SQL] تبسيط
UnaryMinus
Abs
فئة الخطأ ومحاذاتها - [SPARK-47431] [SC-160919] [SQL] إضافة ترتيب افتراضي على مستوى الجلسة
- [SPARK-47620] [SC-161242] [PYTHON] [CONNECT] إضافة دالة مساعد لفرز الأعمدة
- [SPARK-47570] [SC-161165] [SS] دمج تغييرات ترميز فحص النطاق مع تنفيذ المؤقت
- [SPARK-47497] [SC-160724] [SQL] جعل
to_csv
دعم إخراج كسلاسلarray/struct/map/binary
جميلة - [SPARK-47562] [SC-161166] [CONNECT] معالجة القيمة الحرفية للعامل من
plan.py
- [SPARK-47509] [SC-160902] [SQL] حظر تعبيرات الاستعلام الفرعي في lambda ووظائف الترتيب الأعلى
- [SPARK-47539] [SC-160750] [SQL] جعل القيمة المرجعة للأسلوب
castToString
تكونAny => UTF8String
- [SPARK-47372] [SC-160905] [SS] إضافة دعم لأداة ترميز حالة المفتاح المستندة إلى فحص النطاق للاستخدام مع موفر مخزن الحالة
- [SPARK-47517] [SC-160642] [CORE] [SQL] تفضيل Utils.bytesToString لعرض الحجم
- [SPARK-47243] [SC-158059] [SS] تصحيح اسم الحزمة
StateMetadataSource.scala
- [SPARK-47367] [SC-160913] [PYTHON] [CONNECT] دعم مصادر بيانات Python باستخدام Spark الاتصال
- [SPARK-47521] [SC-160666] [CORE] استخدام
Utils.tryWithResource
أثناء قراءة بيانات التبديل العشوائي من التخزين الخارجي - [SPARK-47474] [SC-160522] [CORE] إرجاع SPARK-47461 وإضافة بعض التعليقات
- [SPARK-47560] [SC-160914] [PYTHON] [CONNECT] تجنب RPC للتحقق من صحة اسم العمود باستخدام المخطط المخزن مؤقتا
- [SPARK-47451] [SC-160749] [SQL] دعم to_json(متغير).
- [SPARK-47528] [SC-160727] [SQL] إضافة دعم UserDefinedType إلى DataTypeUtils.canWrite
- [SPARK-44708] إرجاع "[SC-160734][PYTHON] ترحيل test_reset_index assert_eq لاستخدام assertDataFrameEqual"
- [SPARK-47506] [SC-160740] [SQL] إضافة دعم لكافة تنسيقات مصدر الملفات لنوع البيانات المجمعة
- [SPARK-47256] [SC-160784] [SQL] تعيين أسماء لفئات الخطأ _LEGACY_ERROR_TEMP_102[4-7]
- [SPARK-47495] [SC-160720] [CORE] إصلاح جرة المورد الأساسي المضافة إلى spark.jars مرتين ضمن وضع نظام مجموعة k8s
- [SPARK-47398] [SC-160572] [SQL] استخراج سمة ل InMemoryTableScanExec للسماح بتوسيع الوظائف
- [SPARK-47479] [SC-160623] [SQL] يتعذر على تحسين كتابة البيانات إلى العلاقات مع سجل أخطاء مسارات متعددة
- [SPARK-47483] [SC-160629] [SQL] إضافة دعم لعمليات التجميع والانضمام على صفائف السلاسل المجمعة
- [SPARK-47458] [SC-160237] [CORE] إصلاح المشكلة في حساب الحد الأقصى للمهام المتزامنة لمرحلة الحاجز
- [SPARK-47534] [SC-160737] [SQL] الانتقال
o.a.s.variant
إلىo.a.s.types.variant
- [SPARK-47396] [SC-159312] [SQL] إضافة تعيين عام ل TIME WITHOUT TIME ZONE إلى TimestampNTZType
- [SPARK-44708] [SC-160734] [PYTHON] ترحيل test_reset_index assert_eq لاستخدام assertDataFrameEqual
- [SPARK-47309] [SC-157733] [SC-160398] [SQL] XML: إضافة اختبارات استدلال المخطط لعلامات القيمة
- [SPARK-47007] [SC-160630] [SQL]
MapSort
إضافة التعبير - [SPARK-47523] [SC-160645] [SQL] استبدال مهمل
JsonParser#getCurrentName
بJsonParser#currentName
- [SPARK-47440] [SC-160635] [SQL] إصلاح دفع بناء الجملة غير المدعوم إلى MsSqlServer
- [SPARK-47512] [SC-160617] [SS] نوع عملية العلامة المستخدم مع الحصول على/إصدار قفل مثيل مخزن حالة RocksDB
- [SPARK-47346] [SC-159425] [PYTHON] جعل الوضع الخفي قابلا للتكوين عند إنشاء عمال مخطط Python
- [SPARK-47446] [SC-160163] [CORE] قم بالتحذير
BlockManager
من قبلremoveBlockInternal
- [SPARK-46526] [SC-156099] [SQL] دعم LIMIT على الاستعلامات الفرعية المترابطة حيث تشير دالات التقييم إلى الجدول الخارجي فقط
- [SPARK-47461] [SC-160297] [CORE] إزالة الدالة
totalRunningTasksPerResourceProfile
الخاصة منExecutorAllocationManager
- [SPARK-47422] [SC-160219] [SQL] دعم السلاسل المجمعة في عمليات الصفيف
- [SPARK-47500] [SC-160627] [PYTHON] [CONNECT] معالجة اسم عمود العامل خارج
plan.py
- [SPARK-47383] [SC-160144] [CORE] تكوين الدعم
spark.shutdown.timeout
- [SPARK-47342] [SC-159049] إرجاع "[SQL] دعم TimestampNTZ ل DB2 TIMESTAMP مع المنطقة الزمنية"
- [SPARK-47486] [SC-160491] [CONNECT] إزالة الأسلوب الخاص
ArrowDeserializers.getString
غير المستخدم - [SPARK-47233] [SC-154486] [CONNECT] [SS] [2/2] منطق العميل والخادم لمستمع استعلام الدفق من جانب العميل
- [SPARK-47487] [SC-160534] [SQL] تبسيط التعليمات البرمجية في AnsiTypeCoercion
- [SPARK-47443] [SC-160459] [SQL] دعم تجميع النوافذ للتوازيع
- [SPARK-47296] [SC-160457] [SQL] [ترتيب] فشل الدالات غير المدعومة للتوازيعات غير الثنائية
- [SPARK-47380] [SC-160164] [CONNECT] تأكد من جانب الخادم أن SparkSession هو نفسه
- [SPARK-47327] [SC-160069] [SQL] نقل اختبار تزامن مفاتيح الفرز إلى CollationFactorySuite
- [SPARK-47494] [SC-160495] [المستند] إضافة مستند الترحيل لتغيير سلوك استدلال الطابع الزمني Parquet منذ Spark 3.3
- [SPARK-47449] [SC-160372] [SS] إعادة بناء التعليمات البرمجية وتقسيم اختبارات وحدة القائمة/المؤقت
- [SPARK-46473] [SC-155663] [SQL] أسلوب إعادة الاستخدام
getPartitionedFile
- [SPARK-47423] [SC-160068] [SQL] الترتيبات - تعيين دعم العملية للسلاسل ذات الترتيب
- [SPARK-47439] [SC-160115] [PYTHON] واجهة برمجة تطبيقات مصدر بيانات Python للمستند في الصفحة المرجعية لواجهة برمجة التطبيقات
- [SPARK-47457] [SC-160234] [SQL] إصلاح
IsolatedClientLoader.supportsHadoopShadedClient
لمعالجة Hadoop 3.4+ - [SPARK-47366] [SC-159348] [SQL] تنفيذ parse_json.
- [SPARK-46331] [SC-152982] [SQL] إزالة CodegenFallback من مجموعة فرعية من تعبيرات التاريخ والوقت وتعبير الإصدار()
- [SPARK-47395] [SC-159404] إضافة ترتيب وتجميع إلى واجهات برمجة التطبيقات الأخرى
- [SPARK-47437] [SC-160117] [PYTHON] [CONNECT] تصحيح فئة الخطأ ل
DataFrame.sort*
- [SPARK-47174] [SC-154483] [CONNECT] [SS] [1/2] Server side Spark الاتصال ListenerBusListener لمستمع استعلام البث من جانب العميل
- [SPARK-47324] [SC-158720] [SQL] إضافة تحويل الطابع الزمني المفقود للأنوع المتداخلة في JDBC
- [SPARK-46962] [SC-158834] [SS] [PYTHON] إضافة واجهة لواجهة برمجة تطبيقات مصدر بيانات تدفق python وتنفيذ عامل python لتشغيل مصدر بيانات تدفق python
- [SPARK-45827] [SC-158498] [SQL] نقل عمليات التحقق من نوع البيانات إلى CreatableRelationProvider
- [SPARK-47342] [SC-158874] [SQL] دعم TimestampNTZ ل DB2 TIMESTAMP مع المنطقة الزمنية
- [SPARK-47399] [SC-159378] [SQL] تعطيل الأعمدة التي تم إنشاؤها على التعبيرات ذات الترتيب
- [SPARK-47146] [SC-158247] [CORE] تسرب مؤشر الترابط المحتمل عند إجراء صلة دمج الفرز
- [SPARK-46913] [SC-159149] [SS] إضافة دعم للموقتات المستندة إلى وقت المعالجة/الحدث باستخدام عامل تشغيل transformWithState
- [SPARK-47375] [SC-159063] [SQL] إضافة إرشادات لتعيين الطابع الزمني في
JdbcDialect#getCatalystType
- [SPARK-47394] [SC-159282] [SQL] دعم الطابع الزمني مع المنطقة الزمنية ل H2Dialect
- [SPARK-45827] إرجاع "[SC-158498][SQL] نقل عمليات التحقق من نوع البيانات إلى ...
- [SPARK-47208] [SC-159279] [CORE] السماح بتجاوز ذاكرة الحمل الأساسي
- [SPARK-42627] [SC-158021] [SPARK-26494] [SQL] دعم الطابع الزمني ل Oracle مع المنطقة الزمنية المحلية
- [SPARK-47055] [SC-156916] [PYTHON] ترقية MyPy 1.8.0
- [SPARK-46906] [SC-157205] [SS] إضافة فحص لتغيير عامل التشغيل ذي الحالة للبث
- [SPARK-47391] [SC-159283] [SQL] إزالة حل حالة الاختبار ل JDK 8
- [SPARK-47272] [SC-158960] [SS] إضافة تطبيق MapState لواجهة برمجة تطبيقات الحالة الإصدار 2.
- [SPARK-47375] [SC-159278] [المستند] [متابعة] إصلاح خطأ في مستند الخيار المفضل ل JDBCTimestampNTZ
- [SPARK-42328] [SC-157363] [SQL] إزالة _LEGACY_ERROR_TEMP_1175 من فئات الخطأ
- [SPARK-47375] [SC-159261] [المستند] [متابعة] تصحيح وصف خيار preferTimestampNTZ في مستند JDBC
- [SPARK-47344] [SC-159146] توسيع INVALID_IDENTIFIER الخطأ بما يتجاوز التقاط '-' في معرف غير موقوف وإصلاح "IS ! NULL" et al.
- [SPARK-47340] [SC-159039] [SQL] تغيير "ترتيب" في StringType typename إلى أحرف صغيرة
- [SPARK-47087] [SC-157077] [SQL] رفع استثناء Spark مع فئة خطأ في التحقق من قيمة التكوين
- [SPARK-47327] [SC-158824] [SQL] إصلاح مشكلة أمان مؤشر الترابط في ICU Collator
- [SPARK-47082] [SC-157058] [SQL] إصلاح حالة الخطأ خارج الحدود
- [SPARK-47331] [SC-158719] [SS] التسلسل باستخدام فئات الحالة/البدائيات/POJO استنادا إلى أداة ترميز SQL لواجهة برمجة تطبيقات الحالة العشوائية الإصدار 2.
- [SPARK-47250] [SC-158840] [SS] إضافة عمليات تحقق إضافية وتغييرات NERF لموفر حالة RocksDB واستخدام عائلات الأعمدة
- [SPARK-47328] [SC-158745] [SQL] إعادة تسمية ترتيب UCS_BASIC إلى UTF8_BINARY
- [SPARK-47207] [SC-157845] [CORE] الدعم
spark.driver.timeout
وDriverTimeoutPlugin
- [SPARK-47370] [SC-158956] [المستند] إضافة مستند الترحيل: استنتاج نوع TimestampNTZ على ملفات Parquet
- [SPARK-47309] [SC-158827] [SQL] [XML] إضافة اختبارات وحدة استنتاج المخطط
- [SPARK-47295] [SC-158850] [SQL] تمت إضافة ICU StringSearch للدالتين
startsWith
وendsWith
- [SPARK-47343] [SC-158851] [SQL] إصلاح NPE عندما
sqlString
تكون قيمة المتغير سلسلة فارغة في التنفيذ الفوري - [SPARK-46293] [SC-150117] [CONNECT] [PYTHON] استخدام
protobuf
التبعية العابرة - [SPARK-46795] [SC-154143] [SQL] استبدل
UnsupportedOperationException
بSparkUnsupportedOperationException
فيsql/core
- [SPARK-46087] [SC-149023] [PYTHON] مزامنة تبعيات PySpark في المستندات ومتطلبات التطوير
- [SPARK-47169] [SC-158848] [SQL] تعطيل التجميع على الأعمدة المجمعة
- [SPARK-42332] [SC-153996] [SQL] تغيير المطالبة إلى SparkException في ComplexTypeMergingExpression
- [SPARK-45827] [SC-158498] [SQL] نقل عمليات التحقق من نوع البيانات إلى CreatableRelationProvider
- [SPARK-47341] [SC-158825] [الاتصال] استبدال الأوامر بالعلاقات في بعض الاختبارات في Spark الاتصال ClientSuite
- [SPARK-43255] [SC-158026] [SQL] استبدال فئة الخطأ _LEGACY_ERROR_TEMP_2020 بخطأ داخلي
- [SPARK-47248] [SC-158494] [SQL] [ترتيب] دعم دالة السلسلة المحسنة: يحتوي على
- [SPARK-47334] [SC-158716] [SQL] جعل
withColumnRenamed
إعادة استخدام تنفيذwithColumnsRenamed
- [SPARK-46442] [SC-153168] [SQL] يدعم DS V2 الضغط لأسفل PERCENTILE_CONT PERCENTILE_DISC
- [SPARK-47313] [SC-158747] [SQL] scala المضافة. معالجة MatchError داخل QueryExecution.toInternalError
- [SPARK-45827] [SC-158732] [SQL] إضافة نوع مفرد متغير ل Java
- [SPARK-47337] [SC-158743] [SQL] [DOCKER] ترقية إصدار صورة docker DB2 إلى 11.5.8.0
- [SPARK-47302] [SC-158609] [SQL] ترتيب الكلمة الأساسية كمعرف
- [SPARK-46817] [SC-154196] [CORE] إصلاح
spark-daemon.sh
الاستخدام عن طريق إضافةdecommission
أمر - [SPARK-46739] [SC-153553] [SQL] إضافة فئة الخطأ
UNSUPPORTED_CALL
- [SPARK-47102] [SC-158253] [SQL]
COLLATION_ENABLED
إضافة علامة التكوين - [SPARK-46774] [SC-153925] [SQL] [AVRO] استخدام mapreduce.output.fileoutputformat.compress بدلا من mapred.output.compress المهمل في مهام كتابة Avro
- [SPARK-45245] [SC-146961] [PYTHON] [CONNECT] PythonWorkerFactory: المهلة إذا لم يتصل العامل مرة أخرى.
- [SPARK-46835] [SC-158355] [SQL] [ترتيبات] الانضمام إلى دعم الترتيبات غير الثنائية
- [SPARK-47131] [SC-158154] [SQL] [ترتيب] دعم دالة السلسلة: يحتوي على، يبدأ ب، ينتهي ب
- [SPARK-46077] [SC-157839] [SQL] ضع في اعتبارك النوع الذي تم إنشاؤه بواسطة TimestampNTZConverter في JdbcDialect.compileValue.
- [SPARK-47311] [SC-158465] [SQL] [PYTHON] منع استثناءات Python حيث لا يكون PySpark في مسار Python
- [SPARK-47319] [SC-158599] [SQL] تحسين حساب معدل الفقدان
- [SPARK-47316] [SC-158606] [SQL] إصلاح TimestampNTZ في صفيف Postgres
- [SPARK-47268] [SC-158158] [SQL] [ترتيبات] دعم إعادة الدمج مع الترتيب
- [SPARK-47191] [SC-157831] [SQL] تجنب البحث عن العلاقة غير الضرورية عند إلغاء التخزين المؤقت للجدول/طريقة العرض
- [SPARK-47168] [SC-158257] [SQL] تعطيل الضغط على عامل تصفية parquet عند العمل مع سلاسل مجمعة غير افتراضية
- [SPARK-47236] [SC-158015] [CORE] إصلاح
deleteRecursivelyUsingJavaIO
لتخطي إدخال الملف غير الموجود - [SPARK-47238] [SC-158466] [SQL] تقليل استخدام ذاكرة المنفذ عن طريق جعل التعليمات البرمجية التي تم إنشاؤها في WSCG متغير بث
- [SPARK-47249] [SC-158133] [CONNECT] إصلاح الخطأ حيث تعتبر جميع عمليات تنفيذ الاتصال مهجورة بغض النظر عن حالتها الفعلية
- [SPARK-47202] [SC-157828] [PYTHON] إصلاح أوقات التواريخ المطبعية مع tzinfo
- [SPARK-46834] [SC-158139] [SQL] [ترتيبات] دعم التجميعات
- [SPARK-47277] [SC-158351] [3.5] يجب ألا تدعم دالة PySpark util assertDataFrameEqual تدفق DF
- [SPARK-47155] [SC-158473] [PYTHON] إصلاح مشكلة فئة الخطأ
- [SPARK-47245] [SC-158163] [SQL] تحسين رمز الخطأ INVALID_PARTITION_COLUMN_DATA_TYPE
- [SPARK-39771] [SC-158425] [CORE] أضف تحذير msg عند
Dependency
إنشاء عدد كبير جدا من كتل التبديل. - [SPARK-47277] [SC-158329] يجب ألا تدعم دالة PySpark util assertDataFrameEqual تدفق DF
- [SPARK-47293] [SC-158356] [CORE] إنشاء batchSchema باستخدام sparkSchema بدلا من إلحاق واحد تلو الآخر
- [SPARK-46732] [SC-153517] [CONNECT] جعل مؤشر ترابط الاستعلام الفرعي/البث يعمل مع إدارة البيانات الاصطناعية الاتصال
- [SPARK-44746] [SC-158332] [PYTHON] إضافة المزيد من وثائق Python UDTF للوظائف التي تقبل جداول الإدخال
- [SPARK-47120] [SC-157517] [SQL] مقارنة خالية دفع عامل تصفية البيانات لأسفل من الاستعلام الفرعي ينتج في NPE في عامل تصفية Parquet
- [SPARK-47251] [SC-158291] [PYTHON] حظر الأنواع غير الصالحة من وسيطة
args
الأمرsql
- [SPARK-47251] إرجاع "[SC-158121][PYTHON] حظر الأنواع غير الصالحة من وسيطة
args
الأمرsql
" - [SPARK-47015] [SC-157900] [SQL] تعطيل التقسيم على الأعمدة المجمعة
- [SPARK-46846] [SC-154308] [CORE] إجراء
WorkerResourceInfo
التوسيعSerializable
بشكل صريح - [SPARK-46641] [SC-156314] [SS] إضافة حد maxBytesPerTrigger
- [SPARK-47244] [SC-158122] [CONNECT]
SparkConnectPlanner
جعل الوظائف الداخلية خاصة - [SPARK-47266] [SC-158146] [CONNECT] جعل
ProtoUtils.abbreviate
الإرجاع من نفس نوع الإدخال - [SPARK-46961] [SC-158183] [SS] استخدام ProcessorContext لتخزين المقبض واسترداده
- [SPARK-46862] [SC-154548] [SQL] تعطيل تشذيب عمود CSV في الوضع متعدد الأسطر
- [SPARK-46950] [SC-155803] [CORE] [SQL] محاذاة
not available codec
فئة الخطأ - [SPARK-46368] [SC-153236] [CORE] الدعم
readyz
في واجهة برمجة تطبيقات إرسال REST - [SPARK-46806] [SC-154108] [PYTHON] تحسين رسالة الخطأ ل spark.table عندما يكون نوع الوسيطة خاطئا
- [SPARK-47211] [SC-158008] [CONNECT] [PYTHON] إصلاح ترتيب سلسلة PySpark الاتصال المتجاهلة
- [SPARK-46552] [SC-151366] [SQL] استبدل
UnsupportedOperationException
بSparkUnsupportedOperationException
فيcatalyst
- [SPARK-47147] [SC-157842] [PYTHON] [SQL] إصلاح خطأ تحويل سلسلة PySpark المجمعة
- [SPARK-47144] [SC-157826] [CONNECT] [SQL] [PYTHON] إصلاح خطأ ترتيب Spark الاتصال عن طريق إضافة حقل protobuf collateId
- [SPARK-46575] [SC-153200] [SQL] [HIVE] اجعل HiveThriftServer2.startWithContext DevelopApi قابلا لإعادة المحاولة وأصلح flakiness من ThriftServerWithSparkContextInHttpSuite
- [SPARK-46696] [SC-153832] [CORE] في ResourceProfileManager، يجب أن تحدث استدعاءات الدالة بعد إعلانات المتغير
- [SPARK-47214] [SC-157862] [Python] إنشاء واجهة برمجة تطبيقات UDTF لأسلوب "التحليل" للتمييز بين وسيطات NULL الثابتة وأنواع أخرى من الوسيطات
- [SPARK-46766] [SC-153909] [SQL] [AVRO] دعم تجمع المخزن المؤقت ZSTD لمصدر بيانات AVRO
- [SPARK-47192] [SC-157819] تحويل بعض الأخطاء _LEGACY_ERROR_TEMP_0035
- [SPARK-46928] [SC-157341] [SS] إضافة دعم ListState في واجهة برمجة تطبيقات الحالة العشوائية الإصدار 2.
- [SPARK-46881] [SC-154612] [CORE] دعم
spark.deploy.workerSelectionPolicy
- [SPARK-46800] [SC-154107] [CORE] دعم
spark.deploy.spreadOutDrivers
- [SPARK-45484] [SC-146014] [SQL] إصلاح الخطأ الذي يستخدم ترميز ضغط باركيه غير صحيح lz4raw
- [SPARK-46791] [SC-154018] [SQL] دعم مجموعة Java في JavaTypeInference
- [SPARK-46332] [SC-150224] [SQL]
CatalogNotFoundException
الترحيل إلى فئة الخطأCATALOG_NOT_FOUND
- [SPARK-47164] [SC-157616] [SQL] جعل القيمة الافتراضية من النوع الأوسع حرفية ضيقة من v2 تتصرف بنفس الطريقة التي تتصرف بها v1
- [SPARK-46664] [SC-153181] [CORE] تحسين
Master
للاسترداد بسرعة في حالة عدم وجود عمال وتطبيقات - [SPARK-46759] [SC-153839] [SQL] [AVRO] مستوى ضغط دعم Codec xz وzstandard لملفات avro
دعم برنامج تشغيل Databricks ODBC/JDBC
يدعم Databricks برامج تشغيل ODBC/JDBC التي تم إصدارها في العامين الماضيين. يرجى تنزيل برامج التشغيل التي تم إصدارها مؤخرا والترقية (تنزيل ODBC، تنزيل JDBC).
بيئة النظام
- نظام التشغيل: Ubuntu 22.04.4 LTS
- Java: Zulu 8.74.0.17-CA-linux64
- Scala: 2.12.15
- Python: 3.11.0
- R: 4.3.2
- Delta Lake: 3.2.0
مكتبات Python المثبتة
مكتبة | إصدار | مكتبة | إصدار | مكتبة | إصدار |
---|---|---|---|---|---|
الرموز المميزة | 2.0.5 | astunparse | 1.6.3 | azure-core | 1.30.1 |
azure-storage-blob | 12.19.1 | azure-storage-file-datalake | 12.14.0 | تثبيت خلفي | 0.2.0 |
black | 23.3.0 | وامض | 1.4 | boto3 | 1.34.39 |
روبوت الدردشة | 1.34.39 | قوالب ذاكرة التخزين المؤقت | 5.3.3 | شهادة | 2023.7.22 |
cffi | 1.15.1 | تجزئة | 4.0.0 | charset-normalizer | 2.0.4 |
انقر فوق | 8.0.4 | cloudpickle | 2.2.1 | الاتصالات | 0.1.2 |
مخطط إحاطة | 1.0.5 | التشفير | 41.0.3 | دورة | 0.11.0 |
Cython | 0.29.32 | databricks-sdk | 0.20.0 | dbus-python | 1.2.18 |
تصحيح الأخطاء | 1.6.7 | ديكور | 5.1.1 | استياء | 0.3.8 |
نقاط الإدخال | 0.4 | تنفيذ | 0.8.3 | نظرة عامة على الواجهات | 1.1.1 |
قفل الملف | 3.13.1 | أصوام الخطوط | 4.25.0 | gitdb | 4.0.11 |
GitPython | 3.1.43 | google-api-core | 2.18.0 | google-auth | 2.29.0 |
google-cloud-core | 2.4.1 | google-cloud-storage | 2.16.0 | google-crc32c | 1.5.0 |
google-resumable-media | 2.7.0 | googleapis-common-protos | 1.63.0 | grpcio | 1.60.0 |
حالة grpcio | 1.60.0 | httplib2 | 0.20.2 | idna | 3.4 |
بيانات تعريف importlib | 6.0.0 | ipyflow-core | 0.0.198 | ipykernel | 6.25.1 |
ipython | 8.15.0 | ipython-genutils | 0.2.0 | عناوين ipywidgets | 7.7.2 |
isodate | 0.6.1 | جدي | 0.18.1 | سيارة جيب | 0.7.1 |
مسار jmespath | 0.10.0 | joblib | 1.2.0 | jupyter_client | 7.4.9 |
jupyter_core | 5.3.0 | أداة إنشاء المفاتيح | 23.5.0 | kiwisolver | 1.4.4 |
launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 |
matplotlib | 3.7.2 | matplotlib-inline | 0.1.6 | mlflow-skinny | 2.11.3 |
المزيد من التكرارات | 8.10.0 | mypy-extensions | 0.4.3 | nest-asyncio | 1.5.6 |
numpy | 1.23.5 | أواتهليب | 3.2.0 | التغليف | 23.2 |
pandas | 1.5.3 | parso | 0.8.3 | pathspec | 0.10.3 |
باتسي | 0.5.3 | pexpect | 4.8.0 | pickleshare | 0.7.5 |
وساده | 9.4.0 | pip | 23.2.1 | المنصات | 3.10.0 |
بشكل مخطط | 5.9.0 | مجموعة أدوات المطالبة | 3.0.36 | proto-plus | 1.23.0 |
protobuf | 4.24.1 | psutil | 5.9.0 | psycopg2 | 2.9.3 |
عملية ptyprocess | 0.7.0 | تقييم خالص | 0.2.2 | pyarrow | 14.0.1 |
pyasn1 | 0.4.8 | وحدات pyasn1 | 0.2.8 | pyccolo | 0.0.52 |
pycparser | 2.21 | pydantic | 1.10.6 | Pygments | 2.15.1 |
PyGObject | 3.42.1 | PyJWT | 2.3.0 | pyodbc | 4.0.38 |
pyparsing | 3.0.9 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.1.1 |
pytz | 2022.7 | PyYAML | 6.0 | pyzmq | 23.2.0 |
الطلبات | 2.31.0 | Rsa | 4.9 | s3transfer | 0.10.1 |
scikit-learn | 1.3.0 | شفرة | 1.11.1 | بحر محمول | 0.12.2 |
مخزن البيانات السرية | 3.3.1 | أدوات الإعداد | 68.0.0 | ستة | 1.16.0 |
smmap | 5.0.1 | sqlparse | 0.5.0 | ssh-import-id | 5.11 |
بيانات المكدس | 0.2.0 | نماذج الإحصائيات | 0.14.0 | مثابره | 8.2.2 |
threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | اعصار | 6.3.2 |
سمات السمات | 5.7.1 | typing_extensions | 4.10.0 | tzdata | 2022.1 |
ujson | 5.4.0 | ترقيات غير مراقبة | 0.1 | urllib3 | 1.26.16 |
virtualenv | 20.24.2 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
عجله | 0.38.4 | zipp | 3.11.0 |
مكتبات R المثبتة
يتم تثبيت مكتبات R من لقطة Posit مدير الحِزَم CRAN.
مكتبة | إصدار | مكتبة | إصدار | مكتبة | إصدار |
---|---|---|---|---|---|
السهم | 14.0.0.2 | askpass | 1.2.0 | assertthat | 0.2.1 |
backports | 1.4.1 | الأساس | 4.3.2 | base64enc | 0.1-3 |
bigD | 0.2.0 | بت | 4.0.5 | bit64 | 4.0.5 |
bitops | 1.0-7 | كائن ثنائي كبير الحجم | 1.2.4 | boot | 1.3-28 |
المشروب | 1.0-10 | بريو | 1.1.4 | broom | 1.0.5 |
bslib | 0.6.1 | ذاكرة التخزين المؤقت | 1.0.8 | callr | 3.7.3 |
علامة إقحام | 6.0-94 | cellranger | 1.1.0 | كرون | 2.3-61 |
فئة | 7.3-22 | cli | 3.6.2 | clipr | 0.8.0 |
ساعه | 0.7.0 | نظام مجموعة | 2.1.4 | codetools | 0.2-19 |
colorspace | 2.1-0 | العلامة الشائعة | 1.9.1 | compiler | 4.3.2 |
config | 0.3.2 | تتعارض | 1.2.0 | cpp11 | 0.4.7 |
crayon | 1.5.2 | بيانات الاعتماد | 2.0.1 | curl | 5.2.0 |
data.table | 1.15.0 | مجموعات البيانات | 4.3.2 | DBI | 1.2.1 |
dbplyr | 2.4.0 | تنازلي | 1.4.3 | devtools | 2.4.5 |
الرسم التخطيطي | 1.6.5 | diffobj | 0.3.5 | digest | 0.6.34 |
إضاءة هابطة | 0.4.3 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
e1071 | 1.7-14 | علامة الحذف | 0.3.2 | التقييم | 0.23 |
fansi | 1.0.6 | مسافة بعيدة | 2.1.1 | خريطة سريعة | 1.1.1 |
fontawesome | 0.5.2 | forcats | 1.0.0 | Foreach | 1.5.2 |
foreign | 0.8-85 | صياغه | 0.2.0 | fs | 1.6.3 |
future | 1.33.1 | future.apply | 1.11.1 | الغرغره | 1.5.2 |
generics | 0.1.3 | غيرت | 2.0.1 | ggplot2 | 3.4.4 |
غ | 1.4.0 | git2r | 0.33.0 | صور gitcred | 0.1.2 |
glmnet | 4.1-8 | Globals | 0.16.2 | glue | 1.7.0 |
googledrive | 2.1.1 | googlesheets4 | 1.1.1 | gower | 1.0.1 |
graphics | 4.3.2 | grDevices | 4.3.2 | grid | 4.3.2 |
gridExtra | 2.3 | gsubfn | 0.7 | gt | 0.10.1 |
gtable | 0.3.4 | هاردات | 1.3.1 | haven | 2.5.4 |
highr | 0.10 | hms | 1.1.3 | htmltools | 0.5.7 |
htmlwidgets | 1.6.4 | httpuv | 1.6.14 | httr | 1.4.7 |
httr2 | 1.0.0 | ids | 1.0.1 | Ini | 0.3.1 |
ipred | 0.9-14 | isoband | 0.2.7 | iterators | 1.0.14 |
jquerylib | 0.1.4 | jsonlite | 1.8.8 | اجتهادي | 0.1.0 |
KernSmooth | 2.23-21 | knitr | 1.45 | labeling | 0.4.3 |
لاحقا | 1.3.2 | lattice | 0.21-8 | lava | 1.7.3 |
دورة الحياة | 1.0.4 | listenv | 0.9.1 | lubridate | 1.9.3 |
magrittr | 2.0.3 | markdown | 1.12 | MASS | 7.3-60 |
مصفوفة | 1.5-4.1 | المذكرة | 2.0.1 | الأساليب | 4.3.2 |
mgcv | 1.8-42 | mime | 0.12 | واجهة مستخدم مصغرة | 0.1.1.1 |
تدفق التعلم الآلي | 2.10.0 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
munsell | 0.5.0 | nlme | 3.1-163 | nnet | 7.3-19 |
numDeriv | 2016.8-1.1 | openssl | 2.1.1 | parallel | 4.3.2 |
بالتوازي | 1.36.0 | pillar | 1.9.0 | pkgbuild | 1.4.3 |
pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.4 |
plogr | 0.2.0 | plyr | 1.8.9 | الثناء | 1.0.0 |
prettyunits | 1.2.0 | بروك | 1.18.5 | processx | 3.8.3 |
prodlim | 2023.08.28 | ملفات تعريفية | 0.3.8 | التقدم | 1.2.3 |
متدرج التقدم | 0.14.0 | وعود | 1.2.1 | proto | 1.0.0 |
الوكيل | 0.4-27 | ps | 1.7.6 | purrr | 1.0.2 |
R6 | 2.5.1 | رعوج | 1.2.7 | randomForest | 4.7-1.1 |
طيور الراب | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
Rcpp | 1.0.12 | RcppEigen | 0.3.3.9.4 | قابلة للتفاعل | 0.4.4 |
reactR | 0.5.0 | readr | 2.1.5 | readxl | 1.4.3 |
recipes | 1.0.9 | rematch | 2.0.0 | إعادة المباراة2 | 2.1.2 |
Remotes | 2.4.2.1 | reprex | 2.1.0 | reshape2 | 1.4.4 |
rlang | 1.1.3 | rmarkdown | 2.25 | RODBC | 1.3-23 |
roxygen2 | 7.3.1 | rpart | 4.1.21 | rprojroot | 2.0.4 |
Rserve | 1.8-13 | RSQLite | 2.3.5 | rstudioapi | 0.15.0 |
تحويلات | 2.1.2 | rvest | 1.0.3 | ساس | 0.4.8 |
scales | 1.3.0 | selectr | 0.4-2 | معلومات الجلسة | 1.2.2 |
الشكل | 1.4.6 | لامعه | 1.8.0 | قوالب المصدر | 0.1.7-1 |
sparklyr | 1.8.4 | spatial | 7.3-15 | splines | 4.3.2 |
sqldf | 0.4-11 | SQUAREM | 2021.1 | stats | 4.3.2 |
stats4 | 4.3.2 | stringi | 1.8.3 | stringr | 1.5.1 |
survival | 3.5-5 | غرور | 3.33.1 | sys | 3.4.2 |
الشبكات الأساسية للنظام | 1.0.5 | tcltk | 4.3.2 | اختبار الذي | 3.2.1 |
تشكيل النص | 0.3.7 | tibble | 3.2.1 | tidyr | 1.3.1 |
tidyselect | 1.2.0 | tidyverse | 2.0.0 | تغيير الوقت | 0.3.0 |
timeDate | 4032.109 | tinytex | 0.49 | الأدوات | 4.3.2 |
tzdb | 0.4.0 | محدد موقع المعلومات (urlchecker) | 1.0.1 | استخدام هذا | 2.2.2 |
utf8 | 1.2.4 | utils | 4.3.2 | uuid | 1.2-0 |
الإصدار 8 | 4.4.1 | vctrs | 0.6.5 | viridisLite | 0.4.2 |
غرفة vroom | 1.6.5 | والدو | 0.5.2 | whisker | 0.4.1 |
withr | 3.0.0 | xfun | 0.41 | xml2 | 1.3.6 |
xopen | 1.0.0 | xtable | 1.8-4 | yaml | 2.3.8 |
zeallot | 0.1.0 | zip | 2.3.1 |
مكتبات Java و Scala المثبتة (إصدار مجموعة Scala 2.12)
معرف مجموعة | معرف البيانات الاصطناعية | إصدار |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.610 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.610 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.610 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.610 |
com.amazonaws | aws-java-sdk-config | 1.12.610 |
com.amazonaws | aws-java-sdk-core | 1.12.610 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.610 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.610 |
com.amazonaws | aws-java-sdk-directory | 1.12.610 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.610 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.610 |
com.amazonaws | aws-java-sdk-ecs | 1.12.610 |
com.amazonaws | aws-java-sdk-efs | 1.12.610 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.610 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.610 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.610 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.610 |
com.amazonaws | aws-java-sdk-emr | 1.12.610 |
com.amazonaws | aws-java-sdk-glacier | 1.12.610 |
com.amazonaws | aws-java-sdk-glue | 1.12.610 |
com.amazonaws | aws-java-sdk-iam | 1.12.610 |
com.amazonaws | aws-java-sdk-importexport | 1.12.610 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.610 |
com.amazonaws | aws-java-sdk-kms | 1.12.610 |
com.amazonaws | aws-java-sdk-lambda | 1.12.610 |
com.amazonaws | aws-java-sdk-logs | 1.12.610 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.610 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.610 |
com.amazonaws | aws-java-sdk-rds | 1.12.610 |
com.amazonaws | aws-java-sdk-redshift | 1.12.610 |
com.amazonaws | aws-java-sdk-route53 | 1.12.610 |
com.amazonaws | aws-java-sdk-s3 | 1.12.610 |
com.amazonaws | aws-java-sdk-ses | 1.12.610 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.610 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.610 |
com.amazonaws | aws-java-sdk-sns | 1.12.610 |
com.amazonaws | aws-java-sdk-sqs | 1.12.610 |
com.amazonaws | aws-java-sdk-ssm | 1.12.610 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.610 |
com.amazonaws | aws-java-sdk-sts | 1.12.610 |
com.amazonaws | دعم aws-java-sdk | 1.12.610 |
com.amazonaws | مكتبات aws-java-sdk-swf | 1.11.22 |
com.amazonaws | مساحات عمل aws-java-sdk | 1.12.610 |
com.amazonaws | jmespath-java | 1.12.610 |
com.clearspring.analytics | تيار | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | databricks-sdk-java | 0.17.1 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo مظلل | 4.0.2 |
com.esotericsoftware | سجل الحد الأدنى | 1.3.0 |
com.fasterxml | زميل | 1.3.4 |
com.fasterxml.jackson.core | التعليقات التوضيحية ل جاكسون | 2.15.2 |
com.fasterxml.jackson.core | جاكسون النواة | 2.15.2 |
com.fasterxml.jackson.core | جاكسون-databind | 2.15.2 |
com.fasterxml.jackson.dataformat | جاكسون-dataformat-cbor | 2.15.2 |
com.fasterxml.jackson.dataformat | جاكسون-dataformat-yaml | 2.15.2 |
com.fasterxml.jackson.datatype | جاكسون-datatype-joda | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
com.github.ben-manes.كافيين | الكافيين | 2.9.3 |
com.github.fommil | أداة تحميل jniloader | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1 من السكان الأصليين |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1 من السكان الأصليين |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1 من السكان الأصليين |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1 من السكان الأصليين |
com.github.luben | zstd-jni | 1.5.5-4 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.10.1 |
com.google.crypto.tink | تينك | 1.9.0 |
com.google.errorprone | error_prone_annotations | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 23.5.26 |
com.google.guava | الجوافه | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.helger | profiler | 1.1.1 |
com.ibm.icu | icu4j | 72.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | cp عظمي | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | ضغط lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | برد-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.4.3 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.3 |
com.univocity | محللات أحادية التكافؤ | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.16.0 |
المجموعات المشتركة | المجموعات المشتركة | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.13.0 |
commons-lang | commons-lang | 2.6 |
تسجيل المشتركات | تسجيل المشتركات | 1.1.3 |
تجمع مشترك | تجمع مشترك | 1.5.4 |
dev.ludovic.netlib | arpack | 3.0.3 |
dev.ludovic.netlib | بلاس | 3.0.3 |
dev.ludovic.netlib | lapack | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | أداة ضغط الهواء | 0.25 |
io.delta | delta-sharing-client_2.12 | 1.0.5 |
io.dropwizard.metrics | التعليقات التوضيحية للمقاييس | 4.2.19 |
io.dropwizard.metrics | metrics-core | 4.2.19 |
io.dropwizard.metrics | metrics-graphite | 4.2.19 |
io.dropwizard.metrics | المقاييس-الفحوصات الصحية | 4.2.19 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
io.dropwizard.metrics | metrics-jmx | 4.2.19 |
io.dropwizard.metrics | metrics-json | 4.2.19 |
io.dropwizard.metrics | metrics-jvm | 4.2.19 |
io.dropwizard.metrics | metrics-servlets | 4.2.19 |
io.netty | netty-all | 4.1.96.Final |
io.netty | netty-buffer | 4.1.96.Final |
io.netty | netty-codec | 4.1.96.Final |
io.netty | netty-codec-http | 4.1.96.Final |
io.netty | netty-codec-http2 | 4.1.96.Final |
io.netty | netty-codec-socks | 4.1.96.Final |
io.netty | netty-common | 4.1.96.Final |
io.netty | معالج netty | 4.1.96.Final |
io.netty | netty-handler-proxy | 4.1.96.Final |
io.netty | محلل netty | 4.1.96.Final |
io.netty | netty-tcnative-مملة-ثابت | 2.0.61.Final-linux-aarch_64 |
io.netty | netty-tcnative-مملة-ثابت | 2.0.61.Final-linux-x86_64 |
io.netty | netty-tcnative-مملة-ثابت | 2.0.61.Final-osx-aarch_64 |
io.netty | netty-tcnative-مملة-ثابت | 2.0.61.Final-osx-x86_64 |
io.netty | netty-tcnative-مملة-ثابت | 2.0.61.Final-windows-x86_64 |
io.netty | netty-tcnative-classes | 2.0.61.Final |
io.netty | netty-transport | 4.1.96.Final |
io.netty | netty-transport-classes-epoll | 4.1.96.Final |
io.netty | netty-transport-classes-kqueue | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.96.Final |
io.prometheus | واجهة سطر الأوامر البسيطة | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | جامع | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | التنشيط | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | واجهة برمجة تطبيقات المعاملات | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
التفاف دائري | التفاف دائري | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | المخلل | 1.3 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | وقت تشغيل antlr | 3.5.2 |
org.antlr | وقت تشغيل antlr4 | 4.9.3 |
org.antlr | سلسلة قوالب | 3.2.1 |
org.apache.ant | النمل | 1.10.11 |
org.apache.ant | نملة-jsch | 1.10.11 |
org.apache.ant | ant-launcher | 1.10.11 |
org.apache.سهم | تنسيق السهم | 15.0.0 |
org.apache.سهم | ذاكرة أساسية للسهم | 15.0.0 |
org.apache.سهم | سهم-ذاكرة-netty | 15.0.0 |
org.apache.سهم | خط متجه للسهم | 15.0.0 |
org.apache.avro | افرو | 1.11.3 |
org.apache.avro | avro-ipc | 1.11.3 |
org.apache.avro | avro-mapred | 1.11.3 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | ضغط الشائعات | 1.23.0 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | عميل أمين | 2.13.0 |
org.apache.curator | إطار عمل أمين | 2.13.0 |
org.apache.curator | وصفات أمين | 2.13.0 |
org.apache.datasketches | datasketches-java | 3.1.0 |
org.apache.datasketches | datasketches-memory | 2.0.0 |
org.apache.derby | ديربي | 10.14.2.0 |
org.apache.hadoop | وقت تشغيل عميل hadoop | 3.3.6 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | عميل hive-llap | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | اللبلاب | 2.5.1 |
org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
org.apache.logging.log4j | log4j-api | 2.22.1 |
org.apache.logging.log4j | log4j-core | 2.22.1 |
org.apache.logging.log4j | log4j-layout-template-json | 2.22.1 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
org.apache.orc | orc-shims | 1.9.2 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
org.apache.xbean | xbean-asm9-shaded | 4.23 |
org.apache.yetus | التعليقات التوضيحية للجمهور | 0.13.0 |
org.apache.zookeeper | zookeeper | 3.6.3 |
org.apache.zookeeper | zookeeper-jute | 3.6.3 |
org.checkerframework | مدقق كهومي | 3.31.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | جاكسون-mapper-asl | 1.9.13 |
org.codehaus.janino | محول برمجي مشترك | 3.0.16 |
org.codehaus.janino | جانينو | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.collections | مجموعات الكسوف | 11.1.0 |
org.eclipse.collections | eclipse-collections-api | 11.1.0 |
org.eclipse.jetty | عميل jetty | 9.4.52.v20230823 |
org.eclipse.jetty | متابعة jetty | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
org.eclipse.jetty | وكيل jetty | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-security | 9.4.52.v20230823 |
org.eclipse.jetty | خادم jetty | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-webapp | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-api | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | عميل websocket | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | خادم websocket | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | محدد موقع hk2 | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | إعادة حزم الأوبالين | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | جيرسي حاوية-servlet | 2.40 |
org.glassfish.jersey.containers | جيرسي-حاوية-servlet-core | 2.40 |
org.glassfish.jersey.core | جيرسي-العميل | 2.40 |
org.glassfish.jersey.core | جيرسي المشتركة | 2.40 |
org.glassfish.jersey.core | خادم جيرسي | 2.40 |
org.glassfish.jersey.inject | جيرسي-hk2 | 2.40 |
org.hibernate.validator | مدقق الإسبات | 6.1.7.Final |
org.ini4j | ini4j | 0.5.4 |
org.javassist | javassist | 3.29.2-GA |
org.jboss.logging | تسجيل jboss | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | التعليقات التوضيحية | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mlflow | mlflow-spark_2.12 | 2.9.1 |
org.objenesis | داء objenesis | 2.5.1 |
org.postgresql | الانترنت | 42.6.1 |
org.roaringbitmap | هديرBitmap | 0.9.45-databricks |
org.roaringbitmap | الحشوات | 0.9.45-databricks |
org.rocksdb | rocksdbjni | 8.3.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | واجهة الاختبار | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.15 |
org.scalanlp | macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | المتوافق مع التحجيم | 3.2.15 |
org.scalatest | scalatest-core_2.12 | 3.2.15 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
org.scalatest | scalatest_2.12 | 3.2.15 |
org.slf4j | jcl-over-slf4j | 2.0.7 |
org.slf4j | jul-to-slf4j | 2.0.7 |
org.slf4j | slf4j-api | 2.0.7 |
org.slf4j | slf4j-simple | 1.7.25 |
org.threeten | ثلاثتين إضافية | 1.7.1 |
org.tukaani | xz | 1.9 |
مستوى org.typelevel | algebra_2.12 | 2.0.1 |
مستوى org.typelevel | cats-kernel_2.12 | 2.1.1 |
مستوى org.typelevel | spire-macros_2.12 | 0.17.0 |
مستوى org.typelevel | spire-platform_2.12 | 0.17.0 |
مستوى org.typelevel | spire-util_2.12 | 0.17.0 |
مستوى org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.10.3 |
org.yaml | ثعبان الثعبان | 2.0 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |
الملاحظات
https://aka.ms/ContentUserFeedback.
قريبًا: خلال عام 2024، سنتخلص تدريجيًا من GitHub Issues بوصفها آلية إرسال ملاحظات للمحتوى ونستبدلها بنظام ملاحظات جديد. لمزيد من المعلومات، راجعإرسال الملاحظات وعرضها المتعلقة بـ