2\. Creación y carga de un índice de búsqueda con Python
Siga estos pasos para crear el sitio web habilitado para la búsqueda:
- Creación de un recurso de búsqueda
- Creación de un nuevo índice
- Importación de datos con Python mediante el script de ejemplo y el SDK de Azure azure-search-documents.
Creación de un recurso de Azure AI Search
Cree un nuevo recurso de búsqueda desde la línea de comandos mediante la CLI de Azure o Azure PowerShell. Puede recuperar una clave de consulta que se usa para el acceso de lectura al índice y obtendrá la clave de administrador integrada que se usa para agregar objetos.
Debe tener la CLI de Azure o Azure PowerShell instalado en el dispositivo. Si no es un administrador local en el dispositivo, elija Azure PowerShell y use el parámetro Scope
para ejecutar como el usuario actual.
Nota:
Esta tarea no requiere las extensiones de Visual Studio Code para la CLI de Azure y Azure PowerShell. Visual Studio Code reconoce las herramientas de línea de comandos sin las extensiones.
En Visual Studio Code, en Terminal, seleccione Nuevo terminal.
Conexión a Azure:
az login
Antes de crear un nuevo servicio de búsqueda, enumere los servicios existentes para la suscripción:
az resource list --resource-type Microsoft.Search/searchServices --output table
Si tiene un servicio que desea usar, anote el nombre y, a continuación, vaya directamente a la sección siguiente.
Cree un nuevo servicio de búsqueda. Use el siguiente comando como plantilla, sustituyendo los valores válidos para el grupo de recursos, el nombre del servicio, el nivel, la región, las particiones y las réplicas. La siguiente instrucción usa el grupo de recursos "cognitive-search-demo-rg" creado en un paso anterior y especifica el nivel "gratis". Si la suscripción de Azure ya tiene un servicio de búsqueda gratuito, especifique un nivel facturable, como "básico" en su lugar.
az search service create --name my-cog-search-demo-svc --resource-group cognitive-search-demo-rg --sku free --partition-count 1 --replica-count 1
Obtenga una clave de consulta que conceda acceso de lectura a un servicio de búsqueda. Un servicio de búsqueda se aprovisiona con dos claves de administrador y una clave de consulta. Sustituya los nombres válidos para el grupo de recursos y el servicio de búsqueda. Copie la clave de consulta en el Bloc de notas para poder pegarla en el código de cliente en un paso posterior:
az search query-key list --resource-group cognitive-search-demo-rg --service-name my-cog-search-demo-svc
Obtenga una clave de API de administración del servicio de búsqueda. Una clave de API de administrador proporciona acceso de escritura al servicio de búsqueda. Copie una de las claves de administrador en el Bloc de notas para que pueda usarla en el paso de importación masiva que crea y carga un índice:
az search admin-key show --resource-group cognitive-search-demo-rg --service-name my-cog-search-demo-svc
Preparación del script de importación en bloque para Search
El script utiliza el SDK de Azure para Azure AI Search:
En Visual Studio Code, abra el archivo
bulk_upload.py
del subdirectorio,search-website-functions-v4/bulk-upload
, y reemplace las siguientes variables por sus propios valores para autenticarse con el SDK de Azure Search:- YOUR-SEARCH-SERVICE-NAME
- YOUR-SEARCH-SERVICE-ADMIN-API-KEY
import sys import json import requests import pandas as pd from azure.core.credentials import AzureKeyCredential from azure.search.documents import SearchClient from azure.search.documents.indexes import SearchIndexClient from azure.search.documents.indexes.models import SearchIndex from azure.search.documents.indexes.models import ( ComplexField, CorsOptions, SearchIndex, ScoringProfile, SearchFieldDataType, SimpleField, SearchableField, ) # Get the service name (short name) and admin API key from the environment service_name = "YOUR-SEARCH-SERVICE-NAME" key = "YOUR-SEARCH-SERVICE-ADMIN-API-KEY" endpoint = "https://{}.search.windows.net/".format(service_name) # Give your index a name # You can also supply this at runtime in __main__ index_name = "good-books" # Search Index Schema definition index_schema = "./good-books-index.json" # Books catalog books_url = "https://raw.githubusercontent.com/Azure-Samples/azure-search-sample-data/main/good-books/books.csv" batch_size = 1000 # Instantiate a client class CreateClient(object): def __init__(self, endpoint, key, index_name): self.endpoint = endpoint self.index_name = index_name self.key = key self.credentials = AzureKeyCredential(key) # Create a SearchClient # Use this to upload docs to the Index def create_search_client(self): return SearchClient( endpoint=self.endpoint, index_name=self.index_name, credential=self.credentials, ) # Create a SearchIndexClient # This is used to create, manage, and delete an index def create_admin_client(self): return SearchIndexClient(endpoint=endpoint, credential=self.credentials) # Get Schema from File or URL def get_schema_data(schema, url=False): if not url: with open(schema) as json_file: schema_data = json.load(json_file) return schema_data else: data_from_url = requests.get(schema) schema_data = json.loads(data_from_url.content) return schema_data # Create Search Index from the schema # If reading the schema from a URL, set url=True def create_schema_from_json_and_upload(schema, index_name, admin_client, url=False): cors_options = CorsOptions(allowed_origins=["*"], max_age_in_seconds=60) scoring_profiles = [] schema_data = get_schema_data(schema, url) index = SearchIndex( name=index_name, fields=schema_data["fields"], scoring_profiles=scoring_profiles, suggesters=schema_data["suggesters"], cors_options=cors_options, ) try: upload_schema = admin_client.create_index(index) if upload_schema: print(f"Schema uploaded; Index created for {index_name}.") else: exit(0) except: print("Unexpected error:", sys.exc_info()[0]) # Convert CSV data to JSON def convert_csv_to_json(url): df = pd.read_csv(url) convert = df.to_json(orient="records") return json.loads(convert) # Batch your uploads to Azure Search def batch_upload_json_data_to_index(json_file, client): batch_array = [] count = 0 batch_counter = 0 for i in json_file: count += 1 batch_array.append( { "id": str(i["book_id"]), "goodreads_book_id": int(i["goodreads_book_id"]), "best_book_id": int(i["best_book_id"]), "work_id": int(i["work_id"]), "books_count": i["books_count"] if i["books_count"] else 0, "isbn": str(i["isbn"]), "isbn13": str(i["isbn13"]), "authors": i["authors"].split(",") if i["authors"] else None, "original_publication_year": int(i["original_publication_year"]) if i["original_publication_year"] else 0, "original_title": i["original_title"], "title": i["title"], "language_code": i["language_code"], "average_rating": int(i["average_rating"]) if i["average_rating"] else 0, "ratings_count": int(i["ratings_count"]) if i["ratings_count"] else 0, "work_ratings_count": int(i["work_ratings_count"]) if i["work_ratings_count"] else 0, "work_text_reviews_count": i["work_text_reviews_count"] if i["work_text_reviews_count"] else 0, "ratings_1": int(i["ratings_1"]) if i["ratings_1"] else 0, "ratings_2": int(i["ratings_2"]) if i["ratings_2"] else 0, "ratings_3": int(i["ratings_3"]) if i["ratings_3"] else 0, "ratings_4": int(i["ratings_4"]) if i["ratings_4"] else 0, "ratings_5": int(i["ratings_5"]) if i["ratings_5"] else 0, "image_url": i["image_url"], "small_image_url": i["small_image_url"], } ) # In this sample, we limit batches to 1000 records. # When the counter hits a number divisible by 1000, the batch is sent. if count % batch_size == 0: client.upload_documents(documents=batch_array) batch_counter += 1 print(f"Batch sent! - #{batch_counter}") batch_array = [] # This will catch any records left over, when not divisible by 1000 if len(batch_array) > 0: client.upload_documents(documents=batch_array) batch_counter += 1 print(f"Final batch sent! - #{batch_counter}") print("Done!") if __name__ == "__main__": start_client = CreateClient(endpoint, key, index_name) admin_client = start_client.create_admin_client() search_client = start_client.create_search_client() schema = create_schema_from_json_and_upload( index_schema, index_name, admin_client, url=False ) books_data = convert_csv_to_json(books_url) batch_upload = batch_upload_json_data_to_index(books_data, search_client) print("Upload complete")
Abra un terminal integrado en Visual Studio para el subdirectorio del directorio del proyecto,
search-website-functions-v4/bulk-upload
, y ejecute el siguiente comando para instalar las dependencias.python3 -m pip install -r requirements.txt
Ejecución del script de importación en bloque para Search
Siga utilizando el terminal integrado en Visual Studio para el subdirectorio del directorio del proyecto,
search-website-functions-v4/bulk-upload
, a fin de ejecutar el siguiente comando de Bash para ejecutar el scriptbulk_upload.py
:python3 bulk-upload.py
A medida que se va ejecutando el código, la consola muestra el progreso.
Cuando la carga se completa, la última instrucción impresa en la consola es "Listo. Carga completa".
Revisión del nuevo índice de búsqueda
Una vez que la carga se completa, el índice de búsqueda está preparado para su uso. Examine el índice nuevo en Azure Portal.
En Azure Portal, busque el servicio de búsqueda que creó en el paso anterior.
A la izquierda, seleccione Índices y, a continuación, seleccione el índice de libros correctos.
De forma predeterminada, el índice se abre en la pestaña Explorador de búsqueda. Seleccione Buscar para devolver documentos del índice.
Reversión de cambios de archivos de importación masiva
Use el siguiente comando git en el terminal de Visual Studio Code integrado en el directorio bulk-insert
para revertir los cambios. No son necesarios para continuar con el tutorial y no debe guardar ni insertar estos secretos en el repositorio.
git checkout .
Copia del nombre del recurso Search
Anote el nombre del recurso Search. Lo necesitará para conectar la aplicación de funciones de Azure a su recurso de Search.
Precaución
Aunque es posible que se sienta tentado a utilizar la clave de administrador de Search en Azure Functions, eso no sigue el principio de privilegios mínimos. Función de Azure usará la clave de consulta para ajustarse al privilegio mínimo.