3d. 訓練虛假 AI

學習目標 :

這單元將會為你顯示:人工智能 AI 所作出的決定不一定是對的。有時,因為訓練錯誤或訓練不足,AI 的智能是會作出錯誤決定的。更甚者,不法之徒是會蓄意訓練一些錯誤 AI,欺騙別人的。

學習內容 :

  • 今次的AI 工作是要訓練機械人去分辨中文字 「上、下、左、右」。 
  • 同學們會被分成多組,每組大約四個人,可多可少。 一半的組是 “真AI” 組別,另一半的組是 “假AI” 組別。 
    • “真AI” 將會訓練機械人正確地分辨 「上、下、左、右」。 
    • “假AI” 將會訓練機械人錯誤地分辨 「上、下、左、右」。

所需準備 :

材料: Parameter 參數 :
“U03c Chinese Character.json”
上下左右
Sign
打印<direction>pdf
Sensor (Input)
傳感器
相機 32 x 24、灰階
Action (Output)
行動
Label : Right , Left , Up , Down , None
AI Supervised Learning, Neural Network 監督學習,神經網絡
Visualization
可視化
OFF only <network value>; 僅<網絡值> Off

源用 U03c 活動的 parameters 跟指示卡紙

開始訓練 :

  • 點擊<重置學習>按鈕一次; 關閉<自動駕駛>按鈕
  • 點擊<學習>按鈕
  • 訓練機器人識別“None 無” - 即沒有物體,可選擇使用白紙作為「None」
  • “真AI” 將會訓練機械人正確地分辨 「上、下、左、右」。 
  • “假AI” 將會訓練機械人錯誤地分辨 「上、下、左、右」。

測試 :

  • 關閉<學習>按鈕。
  • 點擊<自動駕駛>按鈕。機器人將使用學習的智能來識別方向。
  • 使用沒有字卡、四個方向進行測試。
  • 結果是否正確?

討論 :

  • 請 「真AI」 隊及 「假AI」 隊輪流分享結果。 
  • 為什麼相同的一張咭,在兩隊上得到的結果會不同呢? 
  • 如果 「假AI」 被應用在日常生活上,會有什麼後果呢? 
  • 你可以舉行出一些可能有嚴重後果的 「假AI」 例子嗎?

總結 :

  • 在使用監督式學習法時,訓練用的資料是否正確是非常之重要。 正確的訓練資料,會訓練出能夠作出正確決定的智能。 相反地,不正確的訓練資料,會訓練決定不正確的智能。
  • 在真實世界裡,不正確的決定有時可以導致很嚴重的後果和很大的損失。 虛假或錯誤的AI,有時是因為訓練錯誤或訓練不足。但是,有時不法之徒是會蓄意訓練一些錯誤 AI, 欺騙別人的。