2022年10月21日 星期五

AI不會畫筷子!

這種餵以大量相關資料,讓AI演算法自己找出其中細部資料的關聯性與整體變化趨勢的方法,有一個大問題是,就是不知道AI演算法到底學到了什麼,像這個例子,AI演算法看了大量美少女吃拉麵的圖片後,還是不知道吃麵要用筷子夾起來,然後筷子是兩根滴。(吃圍巾的那張,最有趣!)

要調校這個錯誤,就是餵以大量美少女用兩根筷子去夾拉麵入口的圖片,但是你真的不知道AI演算法,看了這些所謂正確圖片後,會不會認為拉麵不是拿來吃的,而是夾來玩的。

類神經網路式的機器學習,其演算邏輯是程式自己辨識輸入的大量資料的差異而長出來的,例如餵以大量人工辨識與分類的合格PCB板與不合格PCB板(有假焊、漏焊、短路、斷線等瑕疵)的照片,程式就能學習到分辨合格與不合格PCB照片的方法(其學習到的機器辨識邏輯,一般來說人類無法理解或調校),並非以規則導向的專家系統(而這些規則與比重,是與專家討論而得出的,人類也看得懂,也能調校)。

所以,這種AI演算法的大問題,就是不知道它到底學習了什麼,又要怎麼調校,只能不斷地餵它不同的資料。因此,只要換一個問題,單單調整其解法讓其結果有用,就會麻煩到要人命。

  • 謝昆霖
    基於像素導向的學習,而不是物件導向的
    • 作者
      揚昇法律.專利事務所
      謝昆霖 其實,辨識與建立物件模型是這種類神經網路學習方法的第一步,不然,AI就會畫出根本看不懂的東西出來。例如AI畫的漫畫風美少女,就有抓到原始圖庫裡漫畫風美少女的精髓,模型建立的不錯。不過,你看AI畫的拉麵,混用各種麵條,裡面的丸子與蛋,不知道為什麼看起來就很怪,拉麵的物件模型是各種材料物件的組合,顯然AI也沒學好(應該是原始圖片選的不太好,無法凸顯美味拉麵的影像特色)。然後你看到AI畫的筷子物件,手,拉麵的關係一直建立不起來,應該也是同樣的問題,就是餵給AI學習的圖片內容不佳的緣故。
      但是,問題一直是,到底要怎麼調校與糾正這個學習結果呀?只能不斷試誤,繼續餵它各種人工選擇過的圖片,希望AI會學習到而已。