CNTK v2.7 Versionshinweise

Liebe Gemeinschaft,

Mit unseren laufenden Beiträgen zu ONNX und der ONNX-Runtime haben wir es einfacher gemacht, innerhalb des KI-Framework-Ökosystems zu interoperieren und auf leistungsstarke, plattformübergreifende Schlussfolgerungsfunktionen sowohl für herkömmliche ML-Modelle als auch für tiefe neurale Netzwerke zuzugreifen. In den letzten Jahren haben wir uns vor allem für die Entwicklung von wichtigen Open-Source-Machine Learning-Projekten, einschließlich der Microsoft Cognitive Toolkit, die es seinen Benutzern ermöglicht hat, branchenweite Fortschritte im Bereich deep Learning zu nutzen.

Die heutige Version 2.7 ist die letzte Hauptversion von CNTK. Möglicherweise haben wir einige nachfolgende Nebenversionen für Fehlerkorrekturen, aber diese werden auf Fall-nach-Fall-Basis ausgewertet. Es gibt keine Pläne für die neue Featureentwicklung nach dieser Version.

Die CNTK 2.7-Version verfügt über vollständige Unterstützung für ONNX 1.4.1, und wir empfehlen, die CNTK-Modelle zu operationalisieren, um ONNX und die ONNX-Runtime zu nutzen. Die Benutzer können weiter die weiter entwickelnden ONNX-Innovationen über die Anzahl der Frameworks nutzen, die sie unterstützen. Beispielsweise können Benutzer ONNX-Modelle von PyTorch nativ exportieren oder TensorFlow-Modelle mit dem TensorFlow-ONNX-Konverter in ONNX konvertieren.

Wir sind unglaublich dankbar für alle Unterstützungen, die wir von Mitwirkenden und Benutzern seit der ersten Open-Source-Version von CNTK erhalten haben. CNTK hat sowohl Microsoft-Teams als auch externe Benutzer aktiviert, komplexe und große Workloads auf allen Arten von Deep Learning-Anwendungen auszuführen, z. B. historische Durchbrüche bei der Spracherkennung, die von Microsoft Speech-Forschern erreicht wurden, die Ursprung des Frameworks.

Da ONNX zunehmend in der Bereitstellung von Modellen eingesetzt wird, die in Microsoft-Produkten wie Bing und Office verwendet werden, sind wir der Synthesisierung von Innovationen aus der Forschung mit den strengen Anforderungen der Produktion gewidmet, um das Ökosystem vorwärts zu fördern.

Vor allem ist es unser Ziel, Innovationen in deep Learning über die Software- und Hardwarestapel hinweg so offen und zugänglich wie möglich zu machen. Wir werden hart daran arbeiten, sowohl die vorhandenen Stärken von CNTK als auch neue hochmoderne Forschungen in andere Open-Source-Projekte zu bringen, um die Reichweite solcher Technologien wirklich zu erweitern.

Mit Dankbarkeit,

-- Das CNTK-Team

Highlights dieses Releases

  • In CUDA 10 für Windows und Linux verschoben.
  • Unterstützen Sie die ERWEITERTE RNN-Schleife im ONNX-Export.
  • Exportieren Sie größer als 2 GB Modelle im ONNX-Format.
  • Unterstützen Sie FP16 in Brain Script Train-Aktion.

CNTK-Unterstützung für CUDA 10

CNTK unterstützt jetzt CUDA 10. Dies erfordert ein Update zum Erstellen einer Umgebung auf Visual Studio 2017 v15.9 für Windows.

So richten Sie Build- und Laufzeitumgebung unter Windows ein:

  • Installieren Sie Visual Studio 2017. Hinweis: Für CUDA 10 und darüber hinaus ist es nicht mehr erforderlich, mit der spezifischen VC Tools Version 14.11 zu installieren und auszuführen.
  • Installieren von Nvidia CUDA 10
  • Führen Sie in PowerShell folgendes aus: DevInstall.ps1
  • Starten Sie Visual Studio 2017, und öffnen Sie CNTK.sln.

Um build and runtime environment on Linux using docker einzurichten, erstellen Sie bitte Unbuntu 16.04 docker image using Dockerfiles here. Weitere Linux-Systeme finden Sie unter "Dockerfiles", um abhängige Bibliotheken für CNTK einzurichten.

Unterstützen einer erweiterten RNN-Schleife im ONNX-Export

CNTK-Modelle mit rekursiven Schleifen können mit Scan ops in ONNX-Modelle exportiert werden.

Exportieren von größer als 2 GB Modellen im ONNX-Format

Verwenden Sie cntk, um Modelle zu exportieren, die größer als 2 GB im ONNX-Format sind. Funktions-API: save(self, filename, format=ModelFormat.CNTKv2, use_external_files_to_store_parameters=False) with 'format' set to ModelFormat.ONNX and use_external_files_to_store_parameters set to True. In diesem Fall werden Modellparameter in externen Dateien gespeichert. Exportierte Modelle werden bei der Modellauswertung mit onnxruntime mit externen Parameterdateien verwendet.

2018-11-26.
Netron unterstützt jetzt die Visualisierung von CNTK v1- und CNTK v2-Dateien .model .

NetronCNTKDark1NetronCNTKLight1