importedmodel create

Sözdizimi ve kullanımı

bonsai importedmodel create
  -n ML_MODEL_NAME         | --name ML_MODEL_NAME
  -m PATH_TO_ML_MODEL_FILE | --modelfilepath PATH_TO_ML_MODEL_FILE
  [ --display-name DISPLAY_NAME ]
  [ --description DESCRIPTION ]
  [ --w WORKSPACE_ID       | --workspace-id WORKSPACE_ID ]
  [ --no-wait ]
  [ -o OUTPUT_FORMAT       | --output OUTPUT_FORMAT ]
  [ --debug ]

bonsai importedmodel create -h | --help

içeri aktarılan kavramlarda kullanmak üzere çalışma alanınızda yeni bir Machine Learning modeli Bonsai oluşturun.

Seçenekler


-n ML_MODEL_NAME

--name ML_MODEL_NAME

Gerekli, dize.

Machine Learning modeli için benzersiz sistem adını gösterir. Sistem adları büyük/küçük harfe duyarlıdır ve harf, rakam ve tire içerebilir.

Örnek: --name HoneyHouse


-m PATH_TO_ML_MODEL_FILE

--modelfilepath PATH_TO_ML_MODEL_FILE

Gerekli, dize.

bir paketlenmiş Machine Learning dosyasına dosya yolu (göreli veya mutlak). Bonsai Şu anda yerel ONNX dosyalarını (. onnx) ve ZIP arşivi (.zip) olarak paketlenmiş TensorFlow dosyalarını desteklemektedir.

Örnek: --modelfilepath 'LOCAL/PATH/TO/YOUR/MODEL/zipfile.zip'


--display-name DISPLAY_NAME

İsteğe bağlı, dize.

kaynağın kullanıcı dostu adını gösterir (bey, ihraç be, ML model vb.). Bonsai Kullanıcı arabirimi ve CLı çıkışında görünen adı kullanır. Görünen adların benzersiz olması gerekmez. Görünen ad sağlamazsanız, beyni adı kullanılır.

Örnek: --display-name 'The Hive Mind'


--description DESCRIPTION

--des DESCRIPTION

İsteğe bağlı, dize.

, Amacını açıklayan kaynak (beyin, değerlendirme, simülatör vb.) için Kullanıcı dostu bir açıklama sağlar.

Örnek: --description 'Main controller for apiary environment HVAC.'


-w WORKSPACE_ID

--workspace-id WORKSPACE_ID

İsteğe bağlı, onaltılı dize.

BonsaiCLI sunucuyla iletişim kurduğunda Bonsai kullanılması gereken çalışma alanını gösterir.

Örnek: --workspace-id 00000000-0000-0000-0000-000000000000


--no-wait

İsteğe bağlı.

BonsaiCLI 'nın geçerli işlem için beklenmeyeceğini söyler (örneğin, içe aktarılan model yüklemesi). Genellikle uzun süre çalışan komutlarla kullanılır.

Örnek: --no-wait


--debug

İsteğe bağlı.

Ayrıntılı günlük kaydı bilgilerini JSON 'da görüntüleyin. Sunucudan CLı ve yanıt ayrıntılarından Bonsai gelen istek ayrıntılarını içerir.

Örnek: --debug


-o OUTPUT_FORMAT

--output OUTPUT_FORMAT

İsteğe bağlı, numaralandırılmış dize.

Sunucudan alınan Bonsai yanıtların görüntüleme biçimini ayarlar. Varsayılan biçim tablosal. Desteklenen diğer seçenekler aşağıda belirtilmiştir.

Belirteç Çıkış biçimi
json JSON

Örnek: --output json


-h

--help

İsteğe bağlı.

Komut ve çıkış için satır içi yardım görüntüler. Yardım bayrağı kullanılırken gerekli seçenekler gerekli değildir.

Örnek: --help

Örnekler

görünen ad olarak model adını kullanarak yeni bir Machine Learning modeli oluşturun:

bonsai importedmodel create             \
  --name HoneyHouse                     \
  --modelfilepath C:/ml/honey-house.zip
HoneyHouse created.

açık görünen ada ve açıklığa kavuşturan açıklamaya sahip yeni bir Machine Learning modeli oluşturun:

$ bonsai importedmodel create             \
    --name HoneyHouse                     \
    --display-name "The Honey House"      \
    --modelfilepath C:/ml/honey-house.zip \
    --description "Apiary model for tracking bee health"
HoneyHouse created.