AI 人工智慧什麼時候才能全面影響搜索演算法?

AI

人工智慧有可能全面影響搜索演算法?

過去一兩年,人工智慧是最火的並且快速進入實用的技術。以前寫過人工智慧將徹底改變SEO,也介紹過人工智慧在搜索演算法中的實際應用,但需要說明的是,到目前為止,人工智慧在搜索演算法中的應用並不廣泛。影響人工智慧在搜索演算法中大範圍使用的最主要因素可能是,搜索引擎工程師不知道人工智慧系統到底是怎麼做出判斷的,然後又導致另一個重要問題:很難debug。

人工智慧是個黑盒子
用不太嚴格但容易理解的方式說,深度學習就是給現有數據(大量數據)打標籤,然後系統自己總結數據和結果(也就是所打的標籤)之間的關係,面對新數據時,就能依據自己總結的規律給出判斷。對圍棋來說,無論歷史棋局還是自我對弈,AlphaGo知道盤面,也知道結局(也是一種標籤),系統就會總結規律,面對新盤面時判斷贏棋的概率。但AI系統找到的是數據的哪些特徵,與結果之間是怎樣的關係,連創造AI的工程師也不知道。

所以,現在的人工智慧系統是個黑盒子。我們知道AI判斷的正確率高,但不知道為什麼,不知道是怎麼判斷的。

搜索演算法中的AI也是如此。百度搜索工程師的說法很少見到,只是知道百度現在All In AI了。Google工程師明確表示過,他們對RankBrain到底是怎麼工作的也不太清楚。在這種情況下,在演算法中大量使用人工智慧就比較麻煩了,一旦出現異常結果,不知道是什麼原因,也無法debug。

寫這篇帖子是因為前些天看到一篇紐約時報的文章「AI能學會解釋它自己嗎?」,非常有意思。一位心理學家Michal Kosinski把20萬社交網路賬號(是個約會網站)的照片及個人訊息(包括很多內容,如性向)輸入面部識別人工智慧系統,發現人工智慧在只看到照片的情況下判斷性向準確率很高。人工通過照片判斷一個人是否同性戀的準確率是60%,比扔硬幣高一點,但人工智慧判斷男性是否同性戀準確率高達91%,判斷女性低一些,也有83%。

從照片里是看不到音色語調、體態、日常行為、人際關係之類幫助判斷的訊息的。同性戀有純相貌方面的特徵嗎?我個人的經驗是,靠相貌判斷不大靠譜。我以前認識一對男同,他們都是很man的那種,常年健身,待人彬彬有禮但絕沒有女氣,從外表是看不出來的。也可能是依靠某種服飾特點?表情?背景?人工智慧從照片中到底看到了什麼我們人類很可能忽略了的特徵,或者人類根本看不到的特徵,並達到91%的準確率呢?不得而知,反正只是知道AI看得挺准。

不能解釋自己的AI無法被信任
這種黑箱特徵有時候倒無關緊要,像是判斷一下性向。有時候就不能這麼草率了,比如看病。雖然AI系統診斷某些癌症的正確率已經達到人類醫生的水平,但最後結論,目前還是要醫生做,尤其是AI不能告訴我們它診斷的理由是什麼的時候。除非以後AI能解釋它為什麼做出這個診斷,不然讓人類100%信任AI是有比較大心理障礙的。

前幾天剛剛看到新聞,新加坡政府開始測試無人駕駛公共汽車。這顯然是個正確的方向,我也相信不久的將來就會成為現實。雖然自動駕駛汽車事故率比人低,理性上我們都知道其實更安全,但過馬路時,停在旁邊的公共汽車沒有司機,我會不會有點提心弔膽,怕它突然啟動?開車時扭頭一看,旁邊的Bus沒有司機,我會不會嚇一跳,下意識地離它遠點?至少初期會的吧。和幾個朋友聊起這個事,都是理性上相信,感性上心虛。

以前的程序是依靠確定性和因果關係運行的,比如搜索演算法中哪些頁面特徵是排名因素,各占多少權重,這是工程師挑出來的、確定的,雖然挑的時候可能就是拍腦袋決定的,但經過監測效果、調整參數,會達到一個比較滿意的平衡。人工智慧系統並不依靠工程師給定的確定因果,而是更擅長於在概率和相關性中找到聯繫。對人來說,以概率和相關為特徵的判斷,經常就不好解釋理由了,比如也許是看心情,也許是看好看不好看。

要求AI系統解釋自己的判斷,不僅是心理上的問題,也許以後會變成倫理和法律上的問題,像看病。再比如涉及用戶利益的事情,像貸款,人工智慧根據一大堆數據做出拒絕貸款的決定,銀行卻不能解釋為什麼拒絕,對用戶該怎麼交代?今年歐盟可能就要頒布法規,要求機器做出的決定必須有解釋。這對Google、Facebook等全球性的企業是個壓力。在很多領域,如軍事、法律、金融,所有決定都是要有人來承擔責任的,如果某個決定無法解釋原因,恐怕也沒有人敢承擔這個責任。

另一個需要AI解釋理由的原因是,前面提到,人工智慧看的是概率和相關性,但看相關性做決定有時候會導致嚴重錯誤。紐約時報的文章舉了個例子。經過數據訓練的人工智慧系統輔助醫院急診室分診,總體上看效果不錯,但研究人員還是不敢真的拿來實用,因為數據中的相關性可能誤導人工智慧做出錯誤判斷。比如數據表明,患有肺炎的氣喘病人最後病愈情況好於平均水平,這個相關性是真實存在的。如果AI系統因為這個數據就給有肺炎的氣喘病人比較低的處理等級,那可能就要出事了。因為這些病人之所以最後情況良好,是因為他們一來就被給予最高等級,得到最好最快的治療了。所以,有時候從相關性看不到真正的原因。

可解釋的人工智慧
X.A.I.(Explainable AI)可解釋的人工智慧,是剛剛興起的一個領域,目的就是讓AI對自己的判斷、決定和過程做出解釋。去年美國國防高級研究計劃局(Darpa )推出了David Gunning博士領導的XAI計劃。Google也依然是這個領域的領先者,Deep Dream好像就是這方面研究的一個副產品:

AI

人工智慧與SEO

回到搜索演算法及SEO,搜索引擎之所以還無法全面應用人工智慧,其中一個原因也許就是人工智慧的判斷沒有解釋、無法理解,如果演算法使用目前的人工智慧,一旦出現排名異常,工程師們將無法知道原因是什麼,就更無法知道該怎麼調整。

我想自動駕駛是最先AI實用化的領域之一,和能否解釋也有一定關係。自動駕駛汽車的大部分決定是不大需要解釋的,或者說解釋是一目瞭然的,距離前車太近所以要減速或者剎車,這類判斷應該不需要進一步解釋理由了。

SEO們大概都有過同樣的疑惑,某個競爭對手的頁面看著沒什麼特殊的,內容不怎麼樣,視覺設計一般,外鏈普通,頁面優化大家做的都一樣,為什麼排名就那麼好呢?現在的搜索演算法還可以探究原因,搜索工程師們大概有內部工具可以看到排名的合理性。如果搜索工程師看著一個挺爛的頁面就是排在前面,卻也不知道原因,還無從查起,他們的內心可能就焦慮了。

XAI的研究才剛剛開始,這給了SEO們最後的緩衝期。從人工智慧系統在其它領域碾壓人類的表現看,一旦大規模應用於搜索,作弊和黑帽SEO恐怕將成為過去,現在的常規SEO工作也許變得無足輕重。

SEO們需要回到網站的本質:提供有用的訊息或產品,別無他法。

作者: Zac@SEO每天一貼

行銷自動化商業郵件行銷秘訣

需求是行銷的第一直覺!看行銷高手是怎樣出奇制勝的……