Freigeben über


Schnellstart: Benutzerdefinierte Textanalyse für Gesundheit

In diesem Artikel lernen Sie, wie Sie ein Projekt für die benutzerdefinierte Textanalyse für Gesundheit erstellen, in dem Sie benutzerdefinierte Modelle auf der Grundlage der Textanalyse für Gesundheit für die Erkennung benutzerdefinierter Entitäten trainieren können. Ein Modell ist KI-Software, die für eine bestimmte Aufgabe trainiert wurde. Für dieses System extrahieren die Modelle gesundheitsbezogene benannte Entitäten und werden durch Lernen anhand von gekennzeichneten Daten trainiert.

In diesem Artikel verwenden wir Language Studio, um wichtige Konzepte der benutzerdefinierten Textanalyse für Gesundheit zu veranschaulichen. Als Beispiel erstellen wir ein Modell für die benutzerdefinierte Textanalyse für Gesundheit, um die Einrichtung oder den Behandlungsort aus kurzen Entlassungsberichten zu extrahieren.

Voraussetzungen

Erstellen einer neuen Azure KI Language-Ressource und eines Azure-Speicherkontos

Bevor Sie die benutzerdefinierte Textanalyse für die Gesundheit verwenden können, müssen Sie eine Azure KI Language-Ressource erstellen, wodurch Sie die Anmeldeinformationen erhalten, die Sie zum Erstellen eines Projekts und zum Starten des Trainings eines Modells benötigen. Sie benötigen außerdem ein Azure-Speicherkonto, in das Sie Ihr Dataset hochladen können, das zum Erstellen des Modells verwendet wird.

Wichtig

Für einen schnellen Einstieg empfehlen wir die Erstellung einer neuen Azure KI Language-Ressource mithilfe der in diesem Artikel bereitgestellten Schritte. Mit den Schritten in diesem Artikel können Sie gleichzeitig die Language-Ressource und das Speicherkonto erstellen – das ist einfacher als die Kontoerstellung zu einem späteren Zeitpunkt.

Wenn Sie eine bereits vorhandene Ressource verwenden möchten, müssen Sie sie mit dem Speicherkonto verknüpfen. Weitere Informationen finden Sie im Leitfaden zur Verwendung einer vorhandenen Ressource.

Erstellen einer neuen Ressource im Azure-Portal

  1. Melden Sie sich beim Azure-Portal an, um eine neue Azure KI Language-Ressource zu erstellen.

  2. Wählen Sie im angezeigten Fenster in den benutzerdefinierten Features Benutzerdefinierte Textklassifizierung und benutzerdefinierte Erkennung benannter Entitäten aus. Wählen Sie unten auf dem Bildschirm Erstellung Ihrer Ressource fortsetzen aus.

    A screenshot showing custom text classification & custom named entity recognition in the Azure portal.

  3. Erstellen Sie eine Sprachressource mit den folgenden Details:

    Name BESCHREIBUNG
    Subscription Ihr Azure-Abonnement.
    Ressourcengruppe Eine Ressourcengruppe, die Ihre Ressource enthält. Sie können eine vorhandene verwenden oder eine neue erstellen.
    Region Die Region Ihrer Sprachressource. Beispiel: „USA, Westen 2“.
    Name Ein Name für Ihre Ressource.
    Tarif Der Tarif für Ihre Sprachressource Sie können den kostenlosen Tarif (F0) verwenden, um den Dienst auszuprobieren.

    Hinweis

    Wenn Sie in einer Meldung darauf hingewiesen werden, dass Ihr Anmeldekonto kein Besitzer der Ressourcengruppe des ausgewählten Speicherkontos ist, muss Ihrem Konto eine Besitzerrolle für die Ressourcengruppe zugewiesen werden, bevor Sie eine Sprachressource erstellen können. Wenden Sie sich an den Besitzer des Azure-Abonnements, um Unterstützung zu erhalten.

  4. Wählen Sie im Abschnitt Benutzerdefinierte Textklassifizierung und benutzerdefinierte Erkennung benannter Entitäten ein vorhandenes Speicherkonto aus, oder wählen Sie Neues Speicherkonto aus. Diese Werte sollen den Einstieg erleichtern und nicht unbedingt die Speicherkontowerte darstellen, die in Produktionsumgebungen verwendet werden sollten. Um Wartezeit beim Erstellen Ihres Projekts zu vermeiden, sollten Sie eine Verbindung mit Speicherkonten in derselben Region herstellen, in der sich auch Ihre Sprachressource befindet.

    Speicherkontowert Empfohlener Wert
    Speicherkontoname Beliebiger Name
    Speicherkontotyp Standardmäßiger LRS
  5. Stellen Sie sicher, dass die verantwortungsvolle KI-Benachrichtigung überprüft wird. Wählen Sie dann am unteren Rand der Seite die Schaltfläche Überprüfen + Erstellen aus und wählen Sie dann Erstellen aus.

Hochladen von Beispieldaten in den Blobcontainer

Nachdem Sie ein Azure-Speicherkonto erstellt und es mit Ihrer Sprachressource verknüpft haben, müssen Sie die Dokumente aus dem Beispieldataset in das Stammverzeichnis Ihres Containers hochladen. Diese Dokumente werden später zum Trainieren Ihres Modells verwendet.

  1. Laden Sie das Beispieldataset von GitHub herunter.

  2. Öffnen Sie die ZIP-Datei, und extrahieren Sie den Ordner mit den darin enthaltenen Dokumenten.

  3. Navigieren Sie im Azure-Portal zu dem Speicherkonto, das Sie erstellt haben, und wählen Sie es aus.

  4. Klicken Sie in Ihrem Speicherkonto im Menü auf der linken Seite unter Datenspeicher auf Container. Klicken Sie im angezeigten Bildschirm auf + Container. Geben Sie dem Container den Namen example-data, und übernehmen Sie den Standardwert für Öffentliche Zugriffsebene.

    A screenshot showing the main page for a storage account.

  5. Wählen Sie den neu erstellten Container aus. Wählen Sie dann die Schaltfläche Hochladen aus, um die Dateien .txt und .json auszuwählen, die Sie zuvor heruntergeladen haben.

    A screenshot showing the button for uploading files to the storage account.

Das zur Verfügung gestellte Beispieldataset enthält 12 klinische Notizen. Jede klinische Notiz enthält mehrere medizinische Entitäten und den Behandlungsort. Wir verwenden die vordefinierten Entitäten, um die medizinischen Entitäten zu extrahieren und das benutzerdefinierte Modell so zu trainieren, dass der Behandlungsort mithilfe der gelernten Komponenten und der Listenkomponenten der Entität extrahiert wird.

Erstellen eines Projekts für die benutzerdefinierte Textanalyse für Gesundheit

Nachdem Ihre Ressource und das Speicherkonto konfiguriert wurden, erstellen Sie ein neues Projekt für die benutzerdefinierte Textanalyse für Gesundheit. Ein Projekt ist ein Arbeitsbereich zum Erstellen Ihrer benutzerdefinierten ML-Modelle auf der Grundlage Ihrer Daten. Auf Ihr Projekt können nur Sie und andere Personen zugreifen, die Zugriff auf die verwendete Sprachressource haben.

  1. Melden Sie sich bei Language Studio an. Es wird ein Fenster angezeigt, in dem Sie Ihr Abonnement und Ihre Sprachressource auswählen können. Wählen Sie die Sprachressource aus, die Sie im Schritt oben erstellt haben.

  2. Wählen Sie im Abschnitt Informationen extrahieren von Language Studio die Option Benutzerdefinierte Textanalyse für Gesundheit aus.

  3. Wählen Sie im oberen Menü Ihrer Projektseite Neues Projekt erstellen aus. Durch das Erstellen eines Projekts können Sie Daten bezeichnen sowie Ihre Modelle trainieren, auswerten, verbessern und bereitstellen.

    A screenshot of the project creation page.

  4. Geben Sie die Projektinformationen ein, einschließlich eines Namens, einer Beschreibung und der Sprache der Dateien in Ihrem Projekt. Wenn Sie das Beispieldataset verwenden, wählen Sie Englisch aus. Sie können den Namen Ihres Projekts später nicht mehr ändern. Wählen Sie Weiter aus.

    Tipp

    Ihr Dataset muss nicht zur Gänze in derselben Sprache vorliegen. Sie können mehrere Dokumente verwenden, jedes mit jeweils anderen unterstützten Sprachen. Wenn Ihr Dataset Dokumente in verschiedenen Sprachen enthält oder Sie zur Laufzeit mit Text mit verschiedenen Sprachen rechnen, wählen Sie die Option Mehrsprachiges Dataset aktivieren aus, wenn Sie die grundlegenden Informationen für Ihr Projekt eingeben. Diese Option kann später auf der Seite Projekteinstellungen aktiviert werden.

  5. Nachdem Sie Neues Projekt erstellen ausgewählt haben, wird ein Fenster angezeigt, in dem Sie eine Verbindung mit Ihrem Speicherkonto herstellen können. Wenn Sie bereits ein Speicherkonto verbunden haben, wird das verbundene Speicherkonto angezeigt. Falls nicht, wählen Sie Ihr Speicherkonto im angezeigten Dropdownmenü aus, und klicken Sie auf Speicherkonto verbinden. Dadurch werden die erforderlichen Rollen für Ihr Speicherkonto festgelegt. Dieser Schritt gibt möglicherweise einen Fehler zurück, wenn Sie nicht als Besitzer des Speicherkontos zugewiesen sind.

    Hinweis

    • Sie müssen diesen Schritt nur einmal für jede neue Ressource durchführen, die Sie verwenden.
    • Dieser Prozess kann nicht rückgängig gemacht werden – wenn Sie ein Speicherkonto mit Ihrer Sprachressource verbinden, können Sie die Verbindung später nicht trennen.
    • Sie können Ihre Sprachressource nur mit einem Speicherkonto verbinden.

    A screenshot showing the storage connection screen.

  6. Wählen Sie den Container aus, in den Sie Ihr Dataset hochgeladen haben.

  7. Wenn Sie die Daten bereits beschriftet haben, stellen Sie sicher, dass sie dem unterstützten Format entsprechen, und wählen Sie Ja, meine Dateien sind bereits beschriftet, und ich habe die JSON-Bezeichnungsdatei formatiert. aus. Wählen Sie die Bezeichnungsdatei im Dropdownmenü aus. Wählen Sie Weiter aus. Wenn Sie das Dataset aus der Schnellstartanleitung verwenden, ist es nicht erforderlich, die Formatierung der JSON-Bezeichnungsdatei zu überprüfen.

  8. Überprüfen Sie die eingegebenen Daten, und wählen Sie Projekt erstellen aus.

Trainieren Ihres Modells

Nachdem Sie ein Projekt erstellt haben, beginnen Sie in der Regel damit, die Dokumente zu bezeichnen, die im mit Ihrem Projekt verknüpften Container vorhanden sind. Für diese Schnellstartanleitung haben Sie ein mit Tags versehenes Beispieldataset importiert und Ihr Projekt mit der JSON-Beispielbezeichnungsdatei initialisiert, sodass keine zusätzlichen Bezeichnungen hinzugefügt werden müssen.

So beginnen Sie das Training Ihres Modells über Language Studio:

  1. Wählen Sie Trainingsaufträge aus dem Menü auf der linken Seite aus.

  2. Wählen Sie im oberen Menü Trainingsauftrag starten aus.

  3. Wählen Sie Neues Modell trainieren aus, und geben Sie den Namen des Modells im Textfeld darunter ein. Sie können auch ein vorhandenes Modell überschreiben, indem Sie diese Option auswählen und das Modell, das Sie überschreiben möchten, im Dropdownmenü auswählen. Das Überschreiben eines trainierten Modells kann nicht rückgängig gemacht werden, wirkt sich jedoch erst auf Ihre bereitgestellten Modelle aus, wenn Sie das neue Modell bereitstellen.

    A screenshot showing the training job creation screen in Language Studio.

  4. Wählen Sie die Datenteilungsmethode aus. Sie können Automatisches Aufteilen des Testsatzes und der Trainingsdaten auswählen. Dabei teilt das System Ihre beschrifteten Daten gemäß den angegebenen Prozentsätzen zwischen dem Trainings- und dem Testsatz auf. Alternativ können Sie Manuelle Aufteilung von Trainings- und Testdaten verwenden nutzen. Diese Option ist nur aktiviert, wenn Sie Dokumente zu Ihrem Testdatensatz hinzugefügt haben. Weitere Informationen zur Datenteilung finden Sie unter Datenbeschriftung und Trainieren eines Modells.

  5. Wählen Sie die Schaltfläche Train (Trainieren) aus.

  6. Wenn Sie die Trainingsauftrags-ID in der Liste auswählen, wird ein Seitenbereich angezeigt, in dem Sie den Trainingsfortschritt, den Auftragsstatus und andere Details für diesen Auftrag überprüfen können.

    Hinweis

    • Nur erfolgreich abgeschlossene Trainingsaufträge generieren Modelle.
    • Je nach Größe Ihrer beschrifteten Daten kann das Training wenige Minuten oder mehrere Stunden dauern.
    • Es kann jeweils nur ein Trainingsauftrag ausgeführt werden. Sie können keinen anderen Trainingsauftrag innerhalb desselben Projekts starten, bis der ausgeführte Auftrag abgeschlossen ist.

Bereitstellen Ihres Modells

Im Allgemeinen überprüfen Sie nach dem Trainieren eines Modells seine Auswertungsdetails und nehmen bei Bedarf Verbesserungen vor. In diesem Schnellstart stellen Sie einfach Ihr Modell bereit und stellen es zur Verfügung, um es in Language Studio auszuprobieren, oder Sie können die Vorhersage-API aufrufen.

So stellen Sie Ihr Modell über Language Studio bereit:

  1. Wählen Sie im Menü auf der linken Seite Bereitstellen eines Modells aus.

  2. Wählen Sie Bereitstellung hinzufügen aus, um einen neuen Bereitstellungsauftrag zu starten.

    A screenshot showing the deployment button in Language Studio.

  3. Wählen Sie Neue Bereitstellung erstellen aus, um eine neue Bereitstellung zu erstellen und ein trainiertes Modell aus der Dropdownliste unten zuzuweisen. Sie können auch eine vorhandene Bereitstellung überschreiben, indem Sie diese Option und das trainierte Modell auswählen, das Sie ihr aus der Dropdownliste zuweisen möchten.

    Hinweis

    Das Überschreiben einer vorhandenen Bereitstellung erfordert keine Änderungen an Ihrem Vorhersage-API-Aufruf, aber die Ergebnisse, die Sie erhalten, basieren auf dem neu zugewiesenen Modell.

    A screenshot showing the model deployment options in Language Studio.

  4. Wählen Sie Bereitstellen aus, um die Bereitstellungsauftrag zu starten.

  5. Nachdem die Bereitstellung ausgeführt wurde, wird ein Ablaufdatum neben dem Vorgang angezeigt. Die Bereitstellung läuft ab, wenn Ihr bereitgestelltes Modell für die Prognose nicht verfügbar ist, was in der Regel zwölf Monate nach Ablauf einer Trainingskonfiguration erfolgt.

Testen des Modells

Nachdem Ihr Modell bereitgestellt wurde, können Sie es verwenden, um Entitäten über die Vorhersage-API zu extrahieren. In diesem Schnellstart verwenden Sie Language Studio, um die Aufgabe für die benutzerdefinierte Textanalyse für Gesundheit zu übermitteln und die Ergebnisse zu visualisieren. Im zuvor heruntergeladenen Beispieldataset finden Sie einige Testdokumente, die Sie in diesem Schritt verwenden können.

So testen Sie Ihre bereitgestellten Modelle über Language Studio

  1. Wählen Sie Testbereitstellungen aus dem Menü auf der linken Seite aus.

  2. Wählen Sie die Bereitstellung aus, die Sie testen möchten. Sie können nur Modelle testen, die Bereitstellungen zugewiesen sind.

  3. Wählen Sie die Bereitstellung aus der Dropdownliste aus, die Sie abfragen bzw. testen möchten.

  4. Sie können den Text eingeben, den Sie in der Anforderung übermitteln möchten, oder laden Sie eine zu verwendende .txt-Datei hoch.

  5. Wählen Sie im oberen Menü Test ausführen aus.

  6. Auf der Registerkarte Ergebnis sehen Sie die aus Ihrem Text extrahierten Entitäten und ihren Typ. Auf der Registerkarte JSON können Sie außerdem die JSON-Antwort anzeigen.

    A screenshot showing the deployment testing screen in Language Studio.

Bereinigen von Ressourcen

Wenn Sie Ihr Projekt nicht mehr benötigen, können Sie das Projekt mithilfe von Language Studio löschen.

  1. Wählen Sie oben auf der Seite das Sprachdienstfeature aus, das Sie verwenden.
  2. Wählen Sie das Projekt aus, das Sie löschen möchten.
  3. Klicken Sie auf der oberen Menüleiste auf Löschen.

Voraussetzungen

Erstellen einer neuen Azure KI Language-Ressource und eines Azure-Speicherkontos

Bevor Sie die benutzerdefinierte Textanalyse für die Gesundheit verwenden können,werden Sie eine Azure KI Language-Ressource erstellen müssen, wodurch Sie die Anmeldeinformationen erhalten, die Sie zum Erstellen eines Projekts und zum Starten des Trainings eines Modells benötigen. Sie benötigen außerdem ein Azure-Speicherkonto, in das Sie Ihr Dataset hochladen können, das zum Erstellen des Modells verwendet wird.

Wichtig

Für einen schnellen Einstieg empfehlen wir die Erstellung einer neuen Azure KI Language-Ressource mithilfe der in diesem Artikel bereitgestellten Schritte. Auf diese Weise können Sie die Sprachressource und zugleich ein Speicherkonto erstellen und/oder verknüpfen, was einfacher ist als es später nachzuholen.

Wenn Sie eine bereits vorhandene Ressource verwenden möchten, müssen Sie sie mit dem Speicherkonto verknüpfen. Weitere Informationen finden Sie unter Projekt erstellen.

Erstellen einer neuen Ressource im Azure-Portal

  1. Melden Sie sich beim Azure-Portal an, um eine neue Azure KI Language-Ressource zu erstellen.

  2. Wählen Sie im angezeigten Fenster in den benutzerdefinierten Features Benutzerdefinierte Textklassifizierung und benutzerdefinierte Erkennung benannter Entitäten aus. Wählen Sie unten auf dem Bildschirm Erstellung Ihrer Ressource fortsetzen aus.

    A screenshot showing custom text classification & custom named entity recognition in the Azure portal.

  3. Erstellen Sie eine Sprachressource mit den folgenden Details:

    Name BESCHREIBUNG
    Subscription Ihr Azure-Abonnement.
    Ressourcengruppe Eine Ressourcengruppe, die Ihre Ressource enthält. Sie können eine vorhandene verwenden oder eine neue erstellen.
    Region Die Region Ihrer Sprachressource. Beispiel: „USA, Westen 2“.
    Name Ein Name für Ihre Ressource.
    Tarif Der Tarif für Ihre Sprachressource Sie können den kostenlosen Tarif (F0) verwenden, um den Dienst auszuprobieren.

    Hinweis

    Wenn Sie in einer Meldung darauf hingewiesen werden, dass Ihr Anmeldekonto kein Besitzer der Ressourcengruppe des ausgewählten Speicherkontos ist, muss Ihrem Konto eine Besitzerrolle für die Ressourcengruppe zugewiesen werden, bevor Sie eine Sprachressource erstellen können. Wenden Sie sich an den Besitzer des Azure-Abonnements, um Unterstützung zu erhalten.

  4. Wählen Sie im Abschnitt Benutzerdefinierte Textklassifizierung und benutzerdefinierte Erkennung benannter Entitäten ein vorhandenes Speicherkonto aus, oder wählen Sie Neues Speicherkonto aus. Diese Werte sollen den Einstieg erleichtern und nicht unbedingt die Speicherkontowerte darstellen, die in Produktionsumgebungen verwendet werden sollten. Um Wartezeit beim Erstellen Ihres Projekts zu vermeiden, sollten Sie eine Verbindung mit Speicherkonten in derselben Region herstellen, in der sich auch Ihre Sprachressource befindet.

    Speicherkontowert Empfohlener Wert
    Speicherkontoname Beliebiger Name
    Speicherkontotyp Standardmäßiger LRS
  5. Stellen Sie sicher, dass die verantwortungsvolle KI-Benachrichtigung überprüft wird. Wählen Sie dann am unteren Rand der Seite die Schaltfläche Überprüfen + Erstellen aus und wählen Sie dann Erstellen aus.

Hochladen von Beispieldaten in den Blobcontainer

Nachdem Sie ein Azure-Speicherkonto erstellt und es mit Ihrer Sprachressource verknüpft haben, müssen Sie die Dokumente aus dem Beispieldataset in das Stammverzeichnis Ihres Containers hochladen. Diese Dokumente werden später zum Trainieren Ihres Modells verwendet.

  1. Laden Sie das Beispieldataset von GitHub herunter.

  2. Öffnen Sie die ZIP-Datei, und extrahieren Sie den Ordner mit den darin enthaltenen Dokumenten.

  3. Navigieren Sie im Azure-Portal zu dem Speicherkonto, das Sie erstellt haben, und wählen Sie es aus.

  4. Klicken Sie in Ihrem Speicherkonto im Menü auf der linken Seite unter Datenspeicher auf Container. Klicken Sie im angezeigten Bildschirm auf + Container. Geben Sie dem Container den Namen example-data, und übernehmen Sie den Standardwert für Öffentliche Zugriffsebene.

    A screenshot showing the main page for a storage account.

  5. Wählen Sie den neu erstellten Container aus. Wählen Sie dann die Schaltfläche Hochladen aus, um die Dateien .txt und .json auszuwählen, die Sie zuvor heruntergeladen haben.

    A screenshot showing the button for uploading files to the storage account.

Das zur Verfügung gestellte Beispieldataset enthält 12 klinische Notizen. Jede klinische Notiz enthält mehrere medizinische Entitäten und den Behandlungsort. Wir verwenden die vordefinierten Entitäten, um die medizinischen Entitäten zu extrahieren und das benutzerdefinierte Modell so zu trainieren, dass der Behandlungsort mithilfe der gelernten Komponenten und der Listenkomponenten der Entität extrahiert wird.

Abrufen Ihrer Ressourcenschlüssel und Endpunkte

  1. Navigieren Sie im Azure-Portal zur Übersichtsseite Ihrer Ressource.

  2. Wählen Sie im Menü auf der linken Seite Schlüssel und Endpunkt aus. Sie verwenden den Endpunkt und Schlüssel für die API-Anforderungen.

    A screenshot showing the key and endpoint page in the Azure portal

Erstellen eines Projekts für die benutzerdefinierte Textanalyse für Gesundheit

Nachdem Ihre Ressource und das Speicherkonto konfiguriert wurden, erstellen Sie ein neues Projekt für die benutzerdefinierte Textanalyse für Gesundheit. Ein Projekt ist ein Arbeitsbereich zum Erstellen Ihrer benutzerdefinierten ML-Modelle auf der Grundlage Ihrer Daten. Auf Ihr Projekt können nur Sie und andere Personen zugreifen, die Zugriff auf die verwendete Sprachressource haben.

Verwenden Sie die Bezeichnungsdatei, die Sie aus den Beispieldaten im vorherigen Schritt heruntergeladen haben, und fügen Sie sie dem Textkörper der folgenden Anforderung hinzu.

Auslösen des Importprojektauftrags

Übermitteln Sie eine POST-Anforderung mithilfe der folgenden URL, der Header und des JSON-Texts, um Ihre Bezeichnungsdatei zu importieren. Stellen Sie sicher, dass die Bezeichnungsdatei dem akzeptierten Format entspricht.

Wenn bereits ein Projekt mit demselben Namen existiert, werden die Daten dieses Projekts ersetzt.

{Endpoint}/language/authoring/analyze-text/projects/{projectName}/:import?api-version={API-VERSION}
Platzhalter Wert Beispiel
{ENDPOINT} Der Endpunkt für die Authentifizierung Ihrer API-Anforderung. https://<your-custom-subdomain>.cognitiveservices.azure.com
{PROJECT-NAME} Der Name für Ihr Projekt. Bei diesem Wert wird die Groß-/Kleinschreibung beachtet. myProject
{API-VERSION} Die Version der von Ihnen aufgerufenen API. Der hier referenzierte Wert gilt für die neueste veröffentlichte Version. Weitere Informationen zu anderen verfügbaren API-Versionen finden Sie unter Modelllebenszyklus. 2022-05-01

Header

Verwenden Sie den folgenden Header, um Ihre Anforderung zu authentifizieren.

Schlüssel Wert
Ocp-Apim-Subscription-Key Der Schlüssel für Ihre Ressource. Wird für die Authentifizierung Ihrer API-Anforderungen verwendet.

Body

Verwenden Sie den folgenden JSON-Code in Ihrer Anforderung. Ersetzen Sie die folgenden Platzhalter durch Ihre eigenen Werte.

{
	"projectFileVersion": "{API-VERSION}",
	"stringIndexType": "Utf16CodeUnit",
	"metadata": {
		"projectName": "{PROJECT-NAME}",
		"projectKind": "CustomHealthcare",
		"description": "Trying out custom Text Analytics for health",
		"language": "{LANGUAGE-CODE}",
		"multilingual": true,
		"storageInputContainerName": "{CONTAINER-NAME}",
		"settings": {}
	},
	"assets": {
		"projectKind": "CustomHealthcare",
		"entities": [
			{
				"category": "Entity1",
				"compositionSetting": "{COMPOSITION-SETTING}",
				"list": {
					"sublists": [
						{
							"listKey": "One",
							"synonyms": [
								{
									"language": "en",
									"values": [
										"EntityNumberOne",
										"FirstEntity"
									]
								}
							]
						}
					]
				}
			},
			{
				"category": "Entity2"
			},
			{
				"category": "MedicationName",
				"list": {
					"sublists": [
						{
							"listKey": "research drugs",
							"synonyms": [
								{
									"language": "en",
									"values": [
										"rdrug a",
										"rdrug b"
									]
								}
							]

						}
					]
				}
				"prebuilts": "MedicationName"
			}
		],
		"documents": [
			{
				"location": "{DOCUMENT-NAME}",
				"language": "{LANGUAGE-CODE}",
				"dataset": "{DATASET}",
				"entities": [
					{
						"regionOffset": 0,
						"regionLength": 500,
						"labels": [
							{
								"category": "Entity1",
								"offset": 25,
								"length": 10
							},
							{
								"category": "Entity2",
								"offset": 120,
								"length": 8
							}
						]
					}
				]
			},
			{
				"location": "{DOCUMENT-NAME}",
				"language": "{LANGUAGE-CODE}",
				"dataset": "{DATASET}",
				"entities": [
					{
						"regionOffset": 0,
						"regionLength": 100,
						"labels": [
							{
								"category": "Entity2",
								"offset": 20,
								"length": 5
							}
						]
					}
				]
			}
		]
	}
}

Schlüssel Platzhalter Wert Beispiel
multilingual true Dies ist ein boolescher Wert, der es ermöglicht, dass Ihr Dataset Dokumente in mehreren Sprachen enthält. Wenn Ihr Modell bereitgestellt wird, können Sie das Modell in jeder unterstützten Sprache abfragen (die nicht zwangsläufig in Ihren Trainingsdokumenten enthalten ist). Informationen zur Unterstützung mehrerer Sprachen finden Sie unter Sprachunterstützung. true
projectName {PROJECT-NAME} Projektname myproject
storageInputContainerName {CONTAINER-NAME} Containername mycontainer
entities Dies ist ein Array mit allen Entitätstypen, die im Projekt enthalten sind. Dies sind die Entitätstypen, die aus Ihren Dokumenten extrahiert werden.
category Der Name des Entitätstyps. Dieser kann bei neuen Entitätsdefinitionen benutzerdefiniert und bei vordefinierten Entitäten vordefiniert sein.
compositionSetting {COMPOSITION-SETTING} Regel, die definiert, wie mehrere Komponenten in Ihrer Entität verwaltet werden. Die verfügbaren Optionen sind combineComponents oder separateComponents. combineComponents
list Array mit allen Unterlisten, die im Projekt für eine bestimmte Entität vorhanden sind. Listen können vordefinierten Entitäten oder neuen Entitäten mit gelernten Komponenten hinzugefügt werden.
sublists [] Array, das Unterlisten enthält. Jede Unterliste stellt einen Schlüssel und seine zugeordneten Werte dar. []
listKey One Ein normalisierter Wert für die Liste der Synonyme, die der Vorhersage wieder zugeordnet werden sollen. One
synonyms [] Array, das alle Synonyme enthält Synonym
language {LANGUAGE-CODE} Eine Zeichenfolge, die den Sprachcode für das Synonym in Ihrer Unterliste angibt. Wenn es sich bei Ihrem Projekt um ein mehrsprachiges Projekt handelt und Sie Ihre Synonymliste für alle Sprachen in Ihrem Projekt unterstützen möchten, müssen Sie Ihre Synonyme explizit jeder Sprache hinzufügen. Weitere Informationen zu unterstützten Sprachcodes finden Sie unter Sprachunterstützung. en
values "EntityNumberone", "FirstEntity" Eine Liste aus kommagetrennten Zeichenfolgen, für die bei der Extraktion genaue Übereinstimmung erforderlich ist und die dem Listenschlüssel zugeordnet werden. "EntityNumberone", "FirstEntity"
prebuilts MedicationName Der Name der vordefinierten Komponente, die die vordefinierte Entität auffüllt. Vordefinierte Entitäten werden standardmäßig automatisch in Ihr Projekt geladen, können aber mit Listenkomponenten in Ihrer Bezeichnungsdatei erweitert werden. MedicationName
documents Dies ist ein Array mit allen Dokumenten in Ihrem Projekt und die Liste der Entitäten, die innerhalb jedes Dokuments gekennzeichnet sind. []
location {DOCUMENT-NAME} Dies ist der Speicherort der Dokumente im Speichercontainer. Da sich alle Dokumente im Stammverzeichnis des Containers befinden, sollte dies der Dokumentname sein. doc1.txt
dataset {DATASET} Der Testsatz, in den diese Datei bei der Aufteilung vor dem Training aufgenommen wird. Mögliche Werte für dieses Feld sind Train und Test. Train
regionOffset Die inklusive Zeichenposition des Textanfangs 0
regionLength Die Länge des Begrenzungsfelds, ausgedrückt in UTF16-Zeichen Beim Trainieren werden nur die Daten in dieser Region berücksichtigt. 500
category Der Typ der Entität, die dem angegebenen Textbereich zugeordnet ist Entity1
offset Die Startposition für den Entitätstext 25
length Die Länge der Entität in UTF16-Zeichen 20
language {LANGUAGE-CODE} Eine Zeichenfolge, die den Sprachcode für das in Ihrem Projekt verwendete Dokument angibt. Wählen Sie bei einem mehrsprachigen Projekt den Sprachcode für die Sprache aus, die in den meisten Dokumenten verwendet wird. Weitere Informationen zu unterstützten Sprachcodes finden Sie unter Sprachunterstützung. en

Nachdem Sie Ihre API-Anforderung gesendet haben, erhalten Sie eine Antwort vom Typ 202, die angibt, dass der Auftrag ordnungsgemäß übermittelt wurde. Extrahieren Sie in den Antwortheadern den operation-location-Wert. Er weist das folgende Format auf:

{ENDPOINT}/language/authoring/analyze-text/projects/{PROJECT-NAME}/import/jobs/{JOB-ID}?api-version={API-VERSION}

{JOB-ID} wird verwendet, um Ihre Anforderung zu identifizieren, da es sich um einen asynchronen Vorgang handelt. Sie verwenden diese URL, um den Status des Importauftrags abzurufen.

Mögliche Fehlerszenarios für diese Anforderung:

  • Die ausgewählte Ressource verfügt nicht über die richtigen Berechtigungen für das Speicherkonto.
  • Das angegebene storageInputContainerName-Element ist nicht vorhanden.
  • Ein ungültiger Sprachcode wird verwendet, oder der Sprachcodetyp ist keine Zeichenfolge.
  • Der Wert multilingual ist eine Zeichenfolge und kein boolescher Wert.

Abrufen des Importauftragsstatus

Verwenden Sie die folgende GET-Anforderung, um den Status Ihres Projekts abzurufen. Ersetzen Sie die folgenden Platzhalter durch Ihre eigenen Werte.

Anfrage-URL

{ENDPOINT}/language/authoring/analyze-text/projects/{PROJECT-NAME}/import/jobs/{JOB-ID}?api-version={API-VERSION}
Platzhalter Wert Beispiel
{ENDPOINT} Der Endpunkt für die Authentifizierung Ihrer API-Anforderung. https://<your-custom-subdomain>.cognitiveservices.azure.com
{PROJECT-NAME} Der Name des Projekts. Bei diesem Wert wird die Groß-/Kleinschreibung beachtet. myProject
{JOB-ID} Die ID zum Ermitteln des Trainingsstatus Ihres Modells. Dieser Wert befindet sich im location-Headerwert, den Sie im vorherigen Schritt erhalten haben. xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxxx
{API-VERSION} Die Version der von Ihnen aufgerufenen API. Der hier referenzierte Wert gilt für die neueste veröffentlichte Version. Weitere Informationen zu anderen verfügbaren API-Versionen finden Sie unter Modelllebenszyklus. 2022-05-01

Header

Verwenden Sie den folgenden Header, um Ihre Anforderung zu authentifizieren.

Schlüssel Wert
Ocp-Apim-Subscription-Key Der Schlüssel für Ihre Ressource. Wird für die Authentifizierung Ihrer API-Anforderungen verwendet.

Trainieren Ihres Modells

Nachdem Sie ein Projekt erstellt haben, beginnen Sie in der Regel damit, die Dokumente zu bezeichnen, die im mit Ihrem Projekt verknüpften Container vorhanden sind. Für diese Schnellstartanleitung haben Sie ein markiertes Beispieldataset importiert und Ihr Projekt mit der JSON-Beispieltagdatei initialisiert.

Starten des Trainingsauftrags

Nachdem das Projekt importiert wurde, können Sie mit dem Trainieren Ihres Modells beginnen.

Übermitteln Sie eine POST-Anforderung mithilfe der folgenden URL, der Header und des JSON-Texts, um einen Trainingsauftrag zu senden. Ersetzen Sie die Platzhalterwerte durch eigene Werte.

{ENDPOINT}/language/authoring/analyze-text/projects/{PROJECT-NAME}/:train?api-version={API-VERSION}
Platzhalter Wert Beispiel
{ENDPOINT} Der Endpunkt für die Authentifizierung Ihrer API-Anforderung. https://<your-custom-subdomain>.cognitiveservices.azure.com
{PROJECT-NAME} Der Name des Projekts. Bei diesem Wert wird die Groß-/Kleinschreibung beachtet. myProject
{API-VERSION} Die Version der von Ihnen aufgerufenen API. Der hier referenzierte Wert gilt für die neueste veröffentlichte Version. Weitere Informationen zu anderen verfügbaren API-Versionen finden Sie unter Modelllebenszyklus. 2022-05-01

Header

Verwenden Sie den folgenden Header, um Ihre Anforderung zu authentifizieren.

Schlüssel Wert
Ocp-Apim-Subscription-Key Der Schlüssel für Ihre Ressource. Wird für die Authentifizierung Ihrer API-Anforderungen verwendet.

Anforderungstext

Verwenden Sie den folgenden JSON-Code im Anforderungstext. Das Modell wird als {MODEL-NAME} bezeichnet, nachdem das Training abgeschlossen ist. Nur erfolgreiche Trainingsaufträge erzeugen Modelle.

{
	"modelLabel": "{MODEL-NAME}",
	"trainingConfigVersion": "{CONFIG-VERSION}",
	"evaluationOptions": {
		"kind": "percentage",
		"trainingSplitPercentage": 80,
		"testingSplitPercentage": 20
	}
}
Schlüssel Platzhalter Wert Beispiel
modelLabel {MODEL-NAME} Der Modellname, der Ihrem Modell nach dem erfolgreichen Training zugewiesen wird. myModel
trainingConfigVersion {CONFIG-VERSION} Dies ist die Modellversion, die zum Trainieren des Modells verwendet wird. 2022-05-01
evaluationOptions Option zum Aufteilen Ihrer Daten zwischen Trainings- und Testsätzen {}
kind percentage Aufteilungsmethoden Mögliche Werte sind percentage oder manual. Weitere Informationen finden Sie unter Trainieren eines Modells. percentage
trainingSplitPercentage 80 Prozentsatz der markierten Daten, die in den Trainingssatz einbezogen werden sollen. Der empfohlene Wert ist 80. 80
testingSplitPercentage 20 Prozentsatz der markierten Daten, die in den Testsatz einbezogen werden sollen. Der empfohlene Wert ist 20. 20

Hinweis

trainingSplitPercentage und testingSplitPercentage sind nur erforderlich, wenn Kind auf percentage festgelegt ist, und die Summe beider Prozentsätze sollte 100 ergeben.

Nachdem Sie Ihre API-Anforderung gesendet haben, erhalten Sie eine Antwort vom Typ 202, die angibt, dass der Auftrag ordnungsgemäß übermittelt wurde. Extrahieren Sie in den Antwortheadern den location-Wert. Sie hat folgendes Format:

{ENDPOINT}/language/authoring/analyze-text/projects/{PROJECT-NAME}/train/jobs/{JOB-ID}?api-version={API-VERSION}

{JOB-ID} wird verwendet, um Ihre Anforderung zu identifizieren, da es sich um einen asynchronen Vorgang handelt. Sie können diese URL zum Abrufen des Trainingsstatus verwenden.

Abrufen des Trainingsauftragsstatus

Das Training kann zwischen 10 und 30 Minuten für dieses Beispieldataset dauern. Sie können die folgende Anforderung verwenden, um den Status des Trainingsauftrags bis zum erfolgreichen Abschluss abzufragen.

Verwenden Sie die folgende GET-Anforderung, um den Trainingsstatus Ihres Modells abzufragen. Ersetzen Sie die folgenden Platzhalter durch Ihre eigenen Werte.

Anfrage-URL

{ENDPOINT}/language/authoring/analyze-text/projects/{PROJECT-NAME}/train/jobs/{JOB-ID}?api-version={API-VERSION}
Platzhalter Wert Beispiel
{ENDPOINT} Der Endpunkt für die Authentifizierung Ihrer API-Anforderung. https://<your-custom-subdomain>.cognitiveservices.azure.com
{PROJECT-NAME} Der Name des Projekts. Bei diesem Wert wird die Groß-/Kleinschreibung beachtet. myProject
{JOB-ID} Die ID zum Ermitteln des Trainingsstatus Ihres Modells. Dieser Wert befindet sich im location-Headerwert, den Sie im vorherigen Schritt erhalten haben. xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxxx
{API-VERSION} Die Version der von Ihnen aufgerufenen API. Der hier referenzierte Wert gilt für die neueste veröffentlichte Version. Weitere Informationen zu anderen verfügbaren API-Versionen finden Sie unter Modelllebenszyklus. 2022-05-01

Header

Verwenden Sie den folgenden Header, um Ihre Anforderung zu authentifizieren.

Schlüssel Wert
Ocp-Apim-Subscription-Key Der Schlüssel für Ihre Ressource. Wird für die Authentifizierung Ihrer API-Anforderungen verwendet.

Antworttext

Nach dem Senden der Anforderung erhalten Sie die folgende Antwort.

{
  "result": {
    "modelLabel": "{MODEL-NAME}",
    "trainingConfigVersion": "{CONFIG-VERSION}",
    "estimatedEndDateTime": "2022-04-18T15:47:58.8190649Z",
    "trainingStatus": {
      "percentComplete": 3,
      "startDateTime": "2022-04-18T15:45:06.8190649Z",
      "status": "running"
    },
    "evaluationStatus": {
      "percentComplete": 0,
      "status": "notStarted"
    }
  },
  "jobId": "{JOB-ID}",
  "createdDateTime": "2022-04-18T15:44:44Z",
  "lastUpdatedDateTime": "2022-04-18T15:45:48Z",
  "expirationDateTime": "2022-04-25T15:44:44Z",
  "status": "running"
}

Bereitstellen Ihres Modells

Im Allgemeinen überprüfen Sie nach dem Trainieren eines Modells seine Auswertungsdetails und nehmen bei Bedarf Verbesserungen vor. In diesem Schnellstart stellen Sie einfach Ihr Modell bereit und stellen es zur Verfügung, um es in Language Studio auszuprobieren. Alternativ können Sie die Vorhersage-API aufrufen.

Starten des Bereitstellungsauftrags

Übermitteln Sie eine PUT-Anforderung mithilfe der folgenden URL, der Header und des JSON-Texts, um einen Bereitstellungsauftrag zu senden. Ersetzen Sie die folgenden Platzhalter durch Ihre eigenen Werte.

{Endpoint}/language/authoring/analyze-text/projects/{projectName}/deployments/{deploymentName}?api-version={API-VERSION}
Platzhalter Wert Beispiel
{ENDPOINT} Der Endpunkt für die Authentifizierung Ihrer API-Anforderung. https://<your-custom-subdomain>.cognitiveservices.azure.com
{PROJECT-NAME} Der Name des Projekts. Bei diesem Wert wird die Groß-/Kleinschreibung beachtet. myProject
{DEPLOYMENT-NAME} Der Name Ihrer Bereitstellung. Bei diesem Wert wird die Groß-/Kleinschreibung beachtet. staging
{API-VERSION} Die Version der von Ihnen aufgerufenen API. Der hier referenzierte Wert gilt für die neueste veröffentlichte Version. Weitere Informationen zu anderen verfügbaren API-Versionen finden Sie unter Modelllebenszyklus. 2022-05-01

Header

Verwenden Sie den folgenden Header, um Ihre Anforderung zu authentifizieren.

Schlüssel Wert
Ocp-Apim-Subscription-Key Der Schlüssel für Ihre Ressource. Wird für die Authentifizierung Ihrer API-Anforderungen verwendet.

Anforderungstext

Verwenden Sie die folgende JSON-Datei im Textkörper Ihrer Anforderung. Verwenden Sie den Namen des Modells, das Sie der Bereitstellung zuweisen.

{
  "trainedModelLabel": "{MODEL-NAME}"
}
Schlüssel Platzhalter Wert Beispiel
trainedModelLabel {MODEL-NAME} Der Modellname, der Ihrer Bereitstellung zugewiesen wird. Sie können nur Modelle zuweisen, für die das Training erfolgreich war. Bei diesem Wert wird die Groß-/Kleinschreibung beachtet. myModel

Nachdem Sie Ihre API-Anforderung gesendet haben, erhalten Sie eine Antwort vom Typ 202, die angibt, dass der Auftrag ordnungsgemäß übermittelt wurde. Extrahieren Sie in den Antwortheadern den operation-location-Wert. Er weist das folgende Format auf:

{ENDPOINT}/language/authoring/analyze-text/projects/{PROJECT-NAME}/deployments/{DEPLOYMENT-NAME}/jobs/{JOB-ID}?api-version={API-VERSION}

{JOB-ID} wird verwendet, um Ihre Anforderung zu identifizieren, da es sich um einen asynchronen Vorgang handelt. Sie können diese URL verwenden, um den Bereitstellungsstatus abzurufen.

Abrufen des Auftragsstatus der Bereitstellung

Verwenden Sie die folgende GET-Anforderung, um den Status des Bereitstellungsauftrags abzurufen. Sie können die URL verwenden, die Sie im vorherigen Schritt erhalten haben, oder die Platzhalterwerte unten durch Ihre eigenen Werte ersetzen.

{ENDPOINT}/language/authoring/analyze-text/projects/{PROJECT-NAME}/deployments/{DEPLOYMENT-NAME}/jobs/{JOB-ID}?api-version={API-VERSION}
Platzhalter Wert Beispiel
{ENDPOINT} Der Endpunkt für die Authentifizierung Ihrer API-Anforderung. https://<your-custom-subdomain>.cognitiveservices.azure.com
{PROJECT-NAME} Der Name des Projekts. Bei diesem Wert wird die Groß-/Kleinschreibung beachtet. myProject
{DEPLOYMENT-NAME} Der Name Ihrer Bereitstellung. Bei diesem Wert wird die Groß-/Kleinschreibung beachtet. staging
{JOB-ID} Die ID zum Ermitteln des Trainingsstatus Ihres Modells. Diese befindet sich im location-Headerwert, den Sie im vorherigen Schritt erhalten haben. xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxxx
{API-VERSION} Die Version der von Ihnen aufgerufenen API. Der hier referenzierte Wert gilt für die neueste veröffentlichte Version. Weitere Informationen zu anderen verfügbaren API-Versionen finden Sie unter Modelllebenszyklus. 2022-05-01

Header

Verwenden Sie den folgenden Header, um Ihre Anforderung zu authentifizieren.

Schlüssel Wert
Ocp-Apim-Subscription-Key Der Schlüssel für Ihre Ressource. Wird für die Authentifizierung Ihrer API-Anforderungen verwendet.

Antworttext

Sie erhalten die folgende Anforderung, wenn Sie die Anforderung senden. Setzen Sie den Abruf dieses Endpunkts fort, bis der Parameter status zu „succeeded“ (erfolgreich) wechselt. Sie sollten einen 200-Code erhalten, der den Erfolg der Anforderung angibt.

{
    "jobId":"{JOB-ID}",
    "createdDateTime":"{CREATED-TIME}",
    "lastUpdatedDateTime":"{UPDATED-TIME}",
    "expirationDateTime":"{EXPIRATION-TIME}",
    "status":"running"
}

Treffen von Vorhersagen mit Ihrem trainierten Modell

Nachdem Ihr Modell bereitgestellt wurde, können Sie es verwenden, um über die Vorhersage-API Entitäten aus Ihrem Text zu extrahieren. Im zuvor heruntergeladenen Beispieldataset finden Sie einige Testdokumente, die Sie in diesem Schritt verwenden können.

Übermitteln einer Aufgabe für die benutzerdefinierte Textanalyse für Gesundheit

Verwenden Sie die folgende POST-Anforderung, um eine Extraktionsaufgabe für die benutzerdefinierte Textanalyse für Gesundheit zu starten:

{ENDPOINT}/language/analyze-text/jobs?api-version={API-VERSION}
Platzhalter Wert Beispiel
{ENDPOINT} Der Endpunkt für die Authentifizierung Ihrer API-Anforderung. https://<your-custom-subdomain>.cognitiveservices.azure.com
{API-VERSION} Die Version der von Ihnen aufgerufenen API. Der hier referenzierte Wert gilt für die neueste veröffentlichte Version. Weitere Informationen zu anderen verfügbaren API-Versionen finden Sie unter Modelllebenszyklus. 2022-05-01

Header

Schlüssel Wert
Ocp-Apim-Subscription-Key Ihr Schlüssel, der den Zugriff auf diese API ermöglicht.

Body

{
  "displayName": "Extracting entities",
  "analysisInput": {
    "documents": [
      {
        "id": "1",
        "language": "{LANGUAGE-CODE}",
        "text": "Text1"
      },
      {
        "id": "2",
        "language": "{LANGUAGE-CODE}",
        "text": "Text2"
      }
    ]
  },
  "tasks": [
     {
      "kind": "CustomHealthcare",
      "taskName": "Custom TextAnalytics for Health Test",
      "parameters": {
        "projectName": "{PROJECT-NAME}",
        "deploymentName": "{DEPLOYMENT-NAME}"
      }
    }
  ]
}
Schlüssel Platzhalter Wert Beispiel
displayName {JOB-NAME} Dies ist der Name Ihres Auftrags. MyJobName
documents [{},{}] Dies ist die Liste der Dokumente, für die Aufgaben ausgeführt werden sollen. [{},{}]
id {DOC-ID} Hierbei handelt es sich um den Namen oder die ID des Dokuments. doc1
language {LANGUAGE-CODE} Dies ist eine Zeichenfolge, die den Sprachcode des Dokuments angibt. Wenn dieser Schlüssel nicht angegeben ist, nimmt der Dienst die Standardsprache des Projekts an, die bei der Projekterstellung ausgewählt wurde. Unter Sprachunterstützung finden sie eine Liste der unterstützten Sprachcodes. en-us
text {DOC-TEXT} Dies ist die Dokumentaufgabe, für die die Aufgaben ausgeführt werden sollen. Lorem ipsum dolor sit amet
tasks Liste der Aufgaben, die ausgeführt werden sollen. []
taskName Custom Text Analytics for Health Test Aufgabenname Custom Text Analytics for Health Test
kind CustomHealthcare Angabe der gewünschten Art von Projekt oder Aufgabe CustomHealthcare
parameters Dies ist die Liste der Parameter, die an die Aufgabe übergeben werden.
project-name {PROJECT-NAME} Der Name für Ihr Projekt. Bei diesem Wert wird die Groß-/Kleinschreibung beachtet. myProject
deployment-name {DEPLOYMENT-NAME} Der Name Ihrer Bereitstellung. Bei diesem Wert wird die Groß-/Kleinschreibung beachtet. prod

Antwort

Sie erhalten eine Antwort vom Typ „202“, die angibt, dass Ihre Aufgabe erfolgreich übermittelt wurde. Extrahieren Sie operation-location in den Antwortheadern. operation-location weist dieses Format auf:

{ENDPOINT}/language/analyze-text/jobs/{JOB-ID}?api-version={API-VERSION}

Sie können diese URL verwenden, um den Abschlussstatus der Aufgabe abzufragen und die Ergebnisse abzurufen, wenn die Aufgabe abgeschlossen ist.

Abrufen der Aufgabenergebnisse

Verwenden Sie die folgende GET-Anforderung, um den Status/die Ergebnisse der Aufgabe für die Erkennung von benutzerdefinierten Entitäten abzufragen.

{ENDPOINT}/language/analyze-text/jobs/{JOB-ID}?api-version={API-VERSION}
Platzhalter Wert Beispiel
{ENDPOINT} Der Endpunkt für die Authentifizierung Ihrer API-Anforderung. https://<your-custom-subdomain>.cognitiveservices.azure.com
{API-VERSION} Die Version der von Ihnen aufgerufenen API. Der hier referenzierte Wert gilt für die neueste veröffentlichte Version. Weitere Informationen zu anderen verfügbaren API-Versionen finden Sie unter Modelllebenszyklus. 2022-05-01

Header

Schlüssel Wert
Ocp-Apim-Subscription-Key Ihr Schlüssel, der den Zugriff auf diese API ermöglicht.

Antworttext

Die Antwort ist ein JSON-Dokument mit den folgenden Parametern:

{
	"createdDateTime": "2021-05-19T14:32:25.578Z",
	"displayName": "MyJobName",
	"expirationDateTime": "2021-05-19T14:32:25.578Z",
	"jobId": "xxxx-xxxx-xxxxx-xxxxx",
	"lastUpdateDateTime": "2021-05-19T14:32:25.578Z",
	"status": "succeeded",
	"tasks": {
		"completed": 1,
		"failed": 0,
		"inProgress": 0,
		"total": 1,
		"items": [
			{
				"kind": "CustomHealthcareLROResults",
				"taskName": "Custom Text Analytics for Health Test",
				"lastUpdateDateTime": "2020-10-01T15:01:03Z",
				"status": "succeeded",
				"results": {
					"documents": [
						{
							"entities": [
								{
									"entityComponentInformation": [
										{
											"entityComponentKind": "learnedComponent"
										}
									],
									"offset": 0,
									"length": 11,
									"text": "first entity",
									"category": "Entity1",
									"confidenceScore": 0.98
								},
								{
									"entityComponentInformation": [
										{
											"entityComponentKind": "listComponent"
										}
									],
									"offset": 0,
									"length": 11,
									"text": "first entity",
									"category": "Entity1.Dictionary",
									"confidenceScore": 1.0
								},
								{
									"entityComponentInformation": [
										{
											"entityComponentKind": "learnedComponent"
										}
									],
									"offset": 16,
									"length": 9,
									"text": "entity two",
									"category": "Entity2",
									"confidenceScore": 1.0
								},
								{
									"entityComponentInformation": [
										{
											"entityComponentKind": "prebuiltComponent"
										}
									],
									"offset": 37,
									"length": 9,
									"text": "ibuprofen",
									"category": "MedicationName",
									"confidenceScore": 1,
									"assertion": {
										"certainty": "negative"
									},
									"name": "ibuprofen",
									"links": [
										{
											"dataSource": "UMLS",
											"id": "C0020740"
										},
										{
											"dataSource": "AOD",
											"id": "0000019879"
										},
										{
											"dataSource": "ATC",
											"id": "M01AE01"
										},
										{
											"dataSource": "CCPSS",
											"id": "0046165"
										},
										{
											"dataSource": "CHV",
											"id": "0000006519"
										},
										{
											"dataSource": "CSP",
											"id": "2270-2077"
										},
										{
											"dataSource": "DRUGBANK",
											"id": "DB01050"
										},
										{
											"dataSource": "GS",
											"id": "1611"
										},
										{
											"dataSource": "LCH_NW",
											"id": "sh97005926"
										},
										{
											"dataSource": "LNC",
											"id": "LP16165-0"
										},
										{
											"dataSource": "MEDCIN",
											"id": "40458"
										},
										{
											"dataSource": "MMSL",
											"id": "d00015"
										},
										{
											"dataSource": "MSH",
											"id": "D007052"
										},
										{
											"dataSource": "MTHSPL",
											"id": "WK2XYI10QM"
										},
										{
											"dataSource": "NCI",
											"id": "C561"
										},
										{
											"dataSource": "NCI_CTRP",
											"id": "C561"
										},
										{
											"dataSource": "NCI_DCP",
											"id": "00803"
										},
										{
											"dataSource": "NCI_DTP",
											"id": "NSC0256857"
										},
										{
											"dataSource": "NCI_FDA",
											"id": "WK2XYI10QM"
										},
										{
											"dataSource": "NCI_NCI-GLOSS",
											"id": "CDR0000613511"
										},
										{
											"dataSource": "NDDF",
											"id": "002377"
										},
										{
											"dataSource": "PDQ",
											"id": "CDR0000040475"
										},
										{
											"dataSource": "RCD",
											"id": "x02MO"
										},
										{
											"dataSource": "RXNORM",
											"id": "5640"
										},
										{
											"dataSource": "SNM",
											"id": "E-7772"
										},
										{
											"dataSource": "SNMI",
											"id": "C-603C0"
										},
										{
											"dataSource": "SNOMEDCT_US",
											"id": "387207008"
										},
										{
											"dataSource": "USP",
											"id": "m39860"
										},
										{
											"dataSource": "USPMG",
											"id": "MTHU000060"
										},
										{
											"dataSource": "VANDF",
											"id": "4017840"
										}
									]
								},
								{
									"entityComponentInformation": [
										{
											"entityComponentKind": "prebuiltComponent"
										}
									],
									"offset": 30,
									"length": 6,
									"text": "100 mg",
									"category": "Dosage",
									"confidenceScore": 0.98
								}
							],
							"relations": [
								{
									"confidenceScore": 1,
									"relationType": "DosageOfMedication",
									"entities": [
										{
											"ref": "#/documents/0/entities/1",
											"role": "Dosage"
										},
										{
											"ref": "#/documents/0/entities/0",
											"role": "Medication"
										}
									]
								}
							],
							"id": "1",
							"warnings": []
						}
					],
					"errors": [],
					"modelVersion": "2020-04-01"
				}
			}
		]
	}
}

Schlüssel Beispielwert BESCHREIBUNG
entities [] Ein Array, das alle extrahierten Entitäten enthält.
entityComponentKind prebuiltComponent Eine Variable, die angibt, welche Komponente die spezifische Entität zurückgegeben hat. Mögliche Werte: prebuiltComponent, learnedComponent, listComponent
offset 0 Eine Zahl, die den Ausgangspunkt der extrahierten Entität angibt (mittels Indizierung über die Zeichen).
length 10 Eine Zahl, die die Länge der extrahierten Entität angibt (als Anzahl von Zeichen).
text first entity Der Text, der für eine spezifische Entität extrahiert wurde.
category MedicationName Der Name des Entitätstyps oder der Kategorie, der bzw. die dem extrahierten Text entspricht.
confidenceScore 0.9 Eine Zahl zwischen 0 und 1, die den Grad der Gewissheit des Modells in Bezug auf die extrahierte Entität angibt. Je höher der Wert, desto höher die Gewissheit.
assertion certainty Assertionen, die der extrahierten Entität zugeordnet sind. Assertionen werden nur für vordefinierte Entitäten der Textanalyse für Gesundheit unterstützt.
name Ibuprofen Der normalisierte Name für die Entitätsverknüpfung, die der extrahierten Entität zugeordnet ist. Entitätsverknüpfung wird nur für vordefinierte Entitäten der Textanalyse für Gesundheit unterstützt.
Verknüpfungen [] Ein Array, das alle Ergebnisse der Entitätsverknüpfung enthält, die der extrahierten Entität zugeordnet ist. Entitätsverknüpfung wird nur für vordefinierte Entitäten der Textanalyse für Gesundheit unterstützt.
dataSource UMLS Der Referenzstandard, der sich aus der Entitätsverknüpfung ergibt, die der extrahierten Entität zugeordnet ist. Entitätsverknüpfung wird nur für vordefinierte Entitäten der Textanalyse für Gesundheit unterstützt.
ID C0020740 Der Referenzcode, der sich aus der Entitätsverknüpfung ergibt, die der extrahierten Entität zugeordnet ist, die zur extrahierten Datenquelle gehört. Entitätsverknüpfung wird nur für vordefinierte Entitäten der Textanalyse für Gesundheit unterstützt.
Relationen [] Array, das alle extrahierten Beziehungen enthält. Beziehungsextraktion wird nur für vordefinierte Entitäten der Textanalyse für Gesundheit unterstützt.
relationType DosageOfMedication Die Kategorie der extrahierten Beziehung. Beziehungsextraktion wird nur für vordefinierte Entitäten der Textanalyse für Gesundheit unterstützt.
entities "Dosage", "Medication" Die Entitäten, die der extrahierten Beziehung zugeordnet sind. Beziehungsextraktion wird nur für vordefinierte Entitäten der Textanalyse für Gesundheit unterstützt.

Bereinigen von Ressourcen

Wenn Sie Ihr Projekt nicht mehr benötigen, können Sie es mit der folgenden DELETE-Anforderung löschen. Ersetzen Sie die Platzhalterwerte durch eigene Werte.

{Endpoint}/language/authoring/analyze-text/projects/{projectName}?api-version={API-VERSION}
Platzhalter Wert Beispiel
{ENDPOINT} Der Endpunkt für die Authentifizierung Ihrer API-Anforderung. https://<your-custom-subdomain>.cognitiveservices.azure.com
{PROJECT-NAME} Der Name für Ihr Projekt. Bei diesem Wert wird die Groß-/Kleinschreibung beachtet. myProject
{API-VERSION} Die Version der von Ihnen aufgerufenen API. Der hier referenzierte Wert gilt für die neueste veröffentlichte Version. Weitere Informationen zu anderen verfügbaren API-Versionen finden Sie unter Modelllebenszyklus. 2022-05-01

Header

Verwenden Sie den folgenden Header, um Ihre Anforderung zu authentifizieren.

Schlüssel Wert
Ocp-Apim-Subscription-Key Der Schlüssel für Ihre Ressource. Wird für die Authentifizierung Ihrer API-Anforderungen verwendet.

Nachdem Sie Ihre API-Anforderung gesendet haben, erhalten Sie eine Antwort vom Typ 202, die anzeigt, dass Ihr Projekt erfolgreich gelöscht wurde. Ein erfolgreicher Aufruf enthält einen Operation-Location-Header, mit dem der Auftragsstatus überprüft wird.

Nächste Schritte

Nachdem Sie das Entitätsextraktionsmodell erstellt haben, haben Sie dies:

Wenn Sie beginnen, eigene Projekte für die benutzerdefinierte Textanalyse für Gesundheit zu erstellen, verwenden Sie die Anleitungsartikel, um ausführlichere Informationen zur Datenbeschriftung sowie zum Trainieren und Nutzen Ihres Modells zu erhalten: