GCP Vertex AI

筆記下 Google Machine Learning 的那些事

筆記一下

AutoML 訓練用於分類/迴歸的每節點時數價格 $21.252 美元 

定價  |  Vertex AI  |  Google Cloud

流程

https://console.cloud.google.com/

啟用 API

新建資料集

這邊會定義資料集名稱與種類,並可以直接從這邊選本機檔案上傳到 Storage

※ 反過來可以先把資料上傳到 Storage 再來這裡直接設定資料集來源 from Storage

DataSet

上傳資料

https://github.com/dsindy/kaggle-titanic/blob/master/data/train.csv

※ 這份資料只有八百多筆,Azure可以用,GCP說要一千筆以上資料才能跑

Storage

新建 Storage

主畫面會有最近的資料

在資料集內可以訓練新模型

AutoML

目標這邊要改回歸

選擇欄位

提交

結果

成功畫面

pipelines

跑完之後可以到模型園地

我的模型中找到剛剛(兩個多小時)訓練好的模型

點進去可以看參數

Deploy

Endpoint

Spec

模型監控

監控目標

也可以關閉監控直接部署

Rest

Batch

最後可以在線上預測中找到端點

注意

線上預測端點一但部署就會開始算錢(因為要起一台機器隨時提供Rest API)

練習完千萬記得刪除端點(要先到端點裡面取消模型註冊方可刪除)

Error

資料少於1000筆會失敗

Invalid CSV file: 'utf-8' codec can't decode byte 0xad in position 129: invalid start byte

上傳資料遇到錯誤,看了一下手上是 Big5,我改成 UTF8 後可以正常分析統計資料,但訓練會失敗,最後改成UTF8BOM。

  1. 資料筆數最少要1000筆以上。
  2. 權重欄位不重複值不能超過10000筆以上。
  3. 欄位名稱無法解析(每個欄位開頭要用英文字母,『-』、『?』、『:』和中文好像有問題)。

Required column(s) not included in the provided schema: ['A', 'B', 'C']

我最終重建 DataSet 來重跑 AutoML 之後就成功了

猜測一開始建立 DataSet 時的欄位就已經固定了,後續改 csv 欄位會導致錯誤?

參照

介紹Vertex(1) | ML#Day18 - iT 邦幫忙::一起幫忙解決難題,拯救 IT 人的一天 (ithome.com.tw)

PS5