人工智能發(fā)展面臨的法律挑戰(zhàn)
值得注意的是,對于產品生產者的嚴格責任,規(guī)定有“當前科學水平尚不能發(fā)現(xiàn)缺陷”的免責事由。但是這項免責事由在人工智能領域是否適用值得討論?盡管在深度學習訓練數據和學習過程存在不可預見性,但考慮到人工智能的算法完全由開發(fā)者編寫,開發(fā)者對風險源頭具有絕對的控制力,司法機關可能會推定開發(fā)者應當預見算法執(zhí)行中的可能風險或要求開發(fā)者需要對風險程度的增加承擔責任。在此情況下,如果生產者想要免責,就要對當前技術難以發(fā)現(xiàn)這項風險進行舉證,但這是比較困難的,特別是在人身損害領域,法院對免責事由的審查往往比財產損害要更加嚴格。
本文引用地址:http://www.antipu.com.cn/article/201704/346769.htm人工智能與行業(yè)監(jiān)管
人工智能技術或者產品的研發(fā)本身目前并未設置行政許可和準入限制,但是一旦這些技術和產品將要應用到具體的行業(yè)之中,那么就有可能會涉及各類行業(yè)的牌照取得的問題。
例如在目前最備受熱議的“智能投顧”行業(yè),就出現(xiàn)了很多人打著智能投顧的幌子行非法薦股和無牌照代銷的現(xiàn)象。智能投顧,通俗地說就是“機器人理財”,最早出現(xiàn)在美國,是用數據算法優(yōu)化理財配置的產品。目前國內的智能投顧平臺主要有投資咨詢和資產管理兩大方向的業(yè)務。因此,“智能投顧”也會涉及投資咨詢和資產管理兩個方面的牌照。如果平臺從事證券投資咨詢業(yè)務,按規(guī)定,其必須取得經中國證監(jiān)會頒發(fā)的證券投資咨詢從業(yè)資格。而且這樣的平臺只能向投資者提供咨詢建議,不能接觸投資者賬戶或者受托理財。如果智能投顧平臺涉及銷售金融產品,還需要根據產品類型取得相關許可。未取得相關許可的智能投顧平臺經營者可能會因非法經營罪陷入刑事法律風險。在其他的人工智能應用行業(yè),例如醫(yī)療設備、聯(lián)網的可穿戴設備等,牌照的監(jiān)管問題也不容忽視。
未來行業(yè)監(jiān)管是否需要延伸至人工智能領域?對于金融、醫(yī)療、智能家居、自動駕駛等專業(yè)領域,監(jiān)管是否有必要介入人工智能的開發(fā),這取決于人工智能技術的發(fā)展程度,如果有一天人工智能進化到了能夠代替人做決策的階段,那么在人工智能的開發(fā)環(huán)節(jié)便需要引入相關領域的具備資質的專業(yè)人員。在此之前,對于僅僅在自動化操作和輔助判斷領域發(fā)揮作用的人工智能,不妨留給技術人員自由生長。
技術創(chuàng)新與不正當競爭
人工智能的優(yōu)勢,就在于它能在一定程度上模擬用戶的思維過程,并輔助或代替用戶作出決定。不難預見,這一過程中可能存在的服務交叉和選擇偏好問題,將成為競爭法領域新的熱門話題。
為了進行輔助決策,人工智能可能需要利用其他設備或軟件運行過程中的數據,那么用戶和其他軟件的開發(fā)者,誰是這些數據的所有人,誰能夠作出有效的授權?如果堅持使用公共數據必須逐一取得其他設備生產者或軟件開發(fā)者的同意,無疑將極大的制約人工智能的應用場景和發(fā)展速度。相反,如果認為人工智能開發(fā)者在充分保證用戶知情權和選擇權、不損害產品或軟件原有功能和商業(yè)模式的前提下,可以獲取其他設備或軟件的公共數據,那么必將有助于市場競爭、打破目前“軍閥割據”的混亂局面。
語音助手已經可以簡化用戶的操作,不遠的未來,如果人工智能發(fā)展到可以預測用戶的需求的階段,在用戶的進入特定場景前便已經準備好相應的服務,這種“衣來伸手飯來張口”的提前介入,糾結屬于合法的技術創(chuàng)新,還是構成對競爭對手的惡意干擾甚至流量劫持,往往需要結合介入時機、介入方式和損害后果等因素綜合判斷。技術中立原則并非萬能的擋箭牌。
總得來說,人工智能的最高理想是代替用戶決策,而決策隱含著對服務的篩選和分發(fā),這意味著人工智能將成為一種全新的流量入口??梢灶A見的是,開發(fā)者夾帶自身利益的沖動難以杜絕,但另一方面,也無需對此過度擔憂,長遠來看,只要用戶依然享有用腳投票的權利,市場競爭始終是保證用戶體驗的不二法門。
未成年人保護和AI倫理
一說到人工智能的用戶,很多人第一聯(lián)想到的總是成年人,而忽略了身邊的很多“小玩家”。人工智能作為一種“增值”技術,早已滲透在我們的手機、iPad、電腦當中,而小朋友們又是這些產品的“頭號粉絲”,其接觸到人工智能,實屬必然。但是就在這時候,人工智能貌似并不能識別出“小用戶們”的身份。最近,國外網站出現(xiàn)了一段視頻,在視頻中小孩向亞馬遜Alexa下達指令:“Alexa,請播放‘diggerdigger(兒童歌曲)’。”之后,亞馬遜個人助手通過算法進行識別,竟然認為小孩子想聽情色內容并開始播放。當小孩子的父母意識到發(fā)生了什么事情的時候,已經為時已晚。無獨有偶,一名六歲的女孩在和Echo內置的人工智能助手Alexa聊天時,訂下了價值170美元的玩具。雖然小孩的媽媽在知道此事后立刻取消了操作,但訂單早已經被處理。和孩子身高幾乎相同的玩偶在第二天就被送到了家門口。因此,我們看到,鑒于人工智能技術尚不成熟,而且小孩子這項技術的認知也未深入,他們在接觸到人工智能系統(tǒng)時很有可能發(fā)生各種問題。人工智能的研發(fā)者和制造者應該預料到未成年人有接觸到其產品的可能性,并采取相應的保護措施。
同時,其他主體例如政府、學校和家長,對提高未成年人對人工智能的認知都負有責任。例如,在美國白宮發(fā)布的報告《為未來人工智能做好準備》中就提到,院校應在安防、隱私和安全方面納入倫理學和相關主題,將其作為人工智能、機器學、計算機科學和數據科學整體課程的一部分。同時,在其另一份報告《人工智能、自動化與經濟報告》中也提出了“為未來的工作教育和培訓美國人”戰(zhàn)略,明確在數學、計算機科學等與人工智能密切相關的主題中提高學生們的認知。
在過去的六十年中,人工智能技術起起伏伏,這一波人工智能熱將在多大程度上影響人類社會還未可知。在考慮如何使用這項技術幫助人類決策的同時,我們也要清楚地認識到,監(jiān)管部門和司法機關對透明性和舉證責任的要求,與機器學習結果的不確定性和算法保密要求之間,存在著一種結構性的緊張關系。如何在建立一個既能鼓勵人工技術發(fā)展,又能合理分配風險的監(jiān)管制度,是下一篇專欄要討論的問題。
評論