提 要
現(xiàn)代信息技術、芯片技術、自動控制技術、人工智能技術,都在重新塑造產(chǎn)品形態(tài)。對于新的產(chǎn)品形態(tài),本文以智能化產(chǎn)品這一名稱來概括。隨著產(chǎn)品形態(tài)的發(fā)展,特別是智能化趨勢,與之相對應的《產(chǎn)品質量法》所關注的問題也應隨之發(fā)展。例如,智能化產(chǎn)品的生產(chǎn)者、銷售者應當承擔的、與產(chǎn)品相關聯(lián)的妥當性的服務提供義務,以及與其相關的法律責任;智能化“聚合產(chǎn)品”被聚合的各方應承擔的義務與責任應予以明確;在使用智能化產(chǎn)品過程中,用戶個人信息的收集、利用、保護應與《個人信息保護法》進行有效銜接等。這些問題在《產(chǎn)品質量法》的修訂中,需要引起高度重視。
□ 薛 軍
伴隨著現(xiàn)代信息技術的飛速發(fā)展,傳統(tǒng)的工業(yè)產(chǎn)品日益具有智能化的特征。產(chǎn)品的智能化,主要通過在產(chǎn)品中嵌入控制芯片,組建物聯(lián)網(wǎng)實現(xiàn)遠程控制以及借助于諸如機器學習等方法,使得產(chǎn)品能夠實現(xiàn)自主決策、自動運行等方式來實現(xiàn)。智能家電逐漸普及,自動駕駛汽車技術的快速迭代發(fā)展,以及智能機器人技術的突破,這些典型的技術應用及產(chǎn)品案例都表明,智能化正在成為現(xiàn)代工業(yè)產(chǎn)品越來越應具備的一項重要性能。我國的《產(chǎn)品質量法》制定于1993年,雖然在后來經(jīng)過修改,但并未進行大的調整。為了適應時代的需要,對該法律所進行的實質性修改并不多。這就導致《產(chǎn)品質量法》,對于因產(chǎn)品智能化導致的諸多新問題、新課題,基本上沒有予以充分的考慮。但現(xiàn)實生活的發(fā)展,其實已經(jīng)提出了諸多亟待解決的新課題。對于這一問題,《產(chǎn)品質量法》的修訂中需要引起高度關注。
產(chǎn)品的智能化發(fā)展,導致產(chǎn)品與服務的邊界日益模糊,生產(chǎn)者角色延長到產(chǎn)品使用的全過程。傳統(tǒng)工業(yè)時代的工業(yè)制成品,通常而言有一個明確的產(chǎn)品形態(tài),產(chǎn)品與相關服務之間的界限很清晰。例如,制造電視機、洗衣機、電冰箱的廠家,在將相應的產(chǎn)品制造出來之后,通過相應的銷售渠道,進入終端用戶手中之后,除了履行自己有期限的質保義務之外,基本上不再干預用戶對產(chǎn)品的使用和消費。在這方面,傳統(tǒng)的汽車制造商就是一個典型的例子。汽車賣出之后,廠家基本上就退出。但是智能化產(chǎn)品在這一方面,則表現(xiàn)出顯著的不同特征。例如,帶有自動駕駛功能的汽車制造商的一個重要義務,就是需要不斷對車載的控制系統(tǒng)進行升級、打補丁以提升其性能。這樣的過程甚至會伴隨著車輛的全生命周期,直到完全報廢。類似的,以蘋果電腦為代表的電腦生產(chǎn)廠家,也承擔著提供持續(xù)的電腦系統(tǒng)維護和升級保障的義務。在未來,伴隨著產(chǎn)品智能化在更大程度上的普及,大多數(shù)工業(yè)產(chǎn)品的生產(chǎn)者與服務提供者的邊界會更加模糊,以至于事實上無法區(qū)分生產(chǎn)者銷售給用戶的究竟是“產(chǎn)品”抑或是“服務”。
面對這種發(fā)展趨勢,《產(chǎn)品質量法》不宜固守傳統(tǒng)的產(chǎn)品概念,而是需要直面產(chǎn)品智能化的不可抗拒的發(fā)展趨勢,針對智能化產(chǎn)品的生產(chǎn)者、銷售者,所應當承擔的、與產(chǎn)品相關聯(lián)的妥當性的服務提供義務,以及與其相關的法律責任,在《產(chǎn)品質量法》的層面上予以明確。對于因為智能化產(chǎn)品的內(nèi)嵌芯片以及運行程序方面的缺陷而導致的問題,應當納入到產(chǎn)品責任的框架之中來。雖然說在通常的情況下,產(chǎn)品銷售者在提供相關支撐服務方面,有合同層面上的義務,但伴隨著產(chǎn)品的多手交易流傳,以及非?;钴S的二手市場交易,會導致在很多時候,終端用戶往往與最初產(chǎn)品的生產(chǎn)者難以確定合同層面上的法律關系。事實上,他們之間也的確不存在任何直接的法律上的聯(lián)系。在這樣的情況下,就必須明確,智能化產(chǎn)品的生產(chǎn)者所應當承擔的、伴隨著產(chǎn)品本身的妥當性的服務提供以及保障支撐義務,與其生產(chǎn)者身份密不可分。換言之,只要相應的產(chǎn)品是智能化的產(chǎn)品,在性質上屬于需要由最初的生產(chǎn)者提供持續(xù)性的服務支撐,才能夠確保相關產(chǎn)品能夠正常發(fā)揮功能,那么生產(chǎn)者責任就應當伴隨著相關的產(chǎn)品本身。產(chǎn)品之所在,責任之所在。并且除非有特殊的例外情況,這種性質的產(chǎn)品責任不能夠被合同的約定所扣減。只有明確了這樣的原則之后,才能夠對智能化產(chǎn)品的用戶提供更加嚴密的保障。
智能化產(chǎn)品本身日益呈現(xiàn)出一定意義上的“聚合產(chǎn)品”的特征。舉例來說,帶有自動駕駛功能的汽車,或者帶有聯(lián)網(wǎng)播放功能的電視機,安裝有定制化支撐軟件的收銀機等等,其中軟件服務商可能是一個主體,硬件供應商可能是另外一個主體。伴隨著產(chǎn)品智能化程度的進一步提升,聚合到產(chǎn)品中的服務商與制造商可能更多。例如,為自動駕駛汽車提供電子地圖的人,提供數(shù)據(jù)處理分析的人,提供傳感器服務的人,完全可能是不同的主體。在這樣的情況下,一旦發(fā)生相應的產(chǎn)品責任(需要注意到,這里的產(chǎn)品責任,根據(jù)上文的分析,已經(jīng)是一種廣義的,內(nèi)涵不局限于產(chǎn)品自身,也包括了與之相關的服務的責任)事件,究竟根據(jù)什么樣的標準,基于何種定性,來確定首要的責任人,就成為一個重要問題。例如,負責為自動駕駛汽車提供數(shù)據(jù)處理的人,如果泄露相關的用戶數(shù)據(jù),這究竟是否可以算是某種意義上的產(chǎn)品責任還是只能認定為一個主體的獨立的隱私侵害行為?筆者認為,高度智能化產(chǎn)品的制造者,為了自己的利益而聚合了大量的第三方服務,將其打包成為一個智能化的產(chǎn)品,向用戶提供,在這種情況下,產(chǎn)品的制造者應該成為所有相關的責任事件的第一責任人,首要責任人。生產(chǎn)者不能以相關的協(xié)議約定等方式,將本來應該由自己承擔的責任轉移給第三方。即使有這樣的約定,對于用戶而言,也不能產(chǎn)生責任轉嫁的效果。舉例來說,某個證券公司購買了某一個公司提供的證券交易終端設備,其中的軟件系統(tǒng)由設備供應商委托第三方開發(fā)維護。但由于系統(tǒng)開發(fā)商的問題,導致出現(xiàn)系統(tǒng)錯誤,不受控制地大量下單,引發(fā)證券公司巨額損失。在這種情況下,證券設備供應商不能以其與系統(tǒng)維護者之間的責任約定條款,來對抗證券公司的索賠請求。毋寧說,其約定僅在內(nèi)部具有效力,但對于供應商而言,其應當承擔法定的產(chǎn)品責任。
在立法中強調和明確這一點非常重要。因為伴隨著包含著服務內(nèi)容在內(nèi)的產(chǎn)品責任的擴大,可以使得產(chǎn)品責任的內(nèi)涵與時俱進地發(fā)展并且擴大其內(nèi)涵。對于用戶來講,面對著高度智能化的產(chǎn)品,其沒有能力去具體判斷問題究竟出在什么地方。如果一個智能化的產(chǎn)品不能運作,究竟是因為控制軟件的問題還是因為制造缺陷的問題,對于用戶來說其實是很難判斷的,而且也不應該由用戶來作出判斷。
產(chǎn)品的智能化會導致一些傳統(tǒng)產(chǎn)品不會發(fā)生的特殊的權益侵害風險,對此應當在產(chǎn)品責任中予以適當?shù)靥峒啊km然相關的責任在性質上難以界定為產(chǎn)品責任,但產(chǎn)品制造者有義務予以防范。具體來說,智能化產(chǎn)品往往伴隨著對用戶各種信息的收集。在這方面就可能會發(fā)生用戶隱私泄露的風險。不久前輿論關注的攝像頭被破解的問題就是一個典型的例子。一些不法分子,通過破解聯(lián)網(wǎng)攝像機的代碼,可以截獲攝像頭的數(shù)據(jù),從而侵害用戶隱私。這種風險對于傳統(tǒng)產(chǎn)品是不存在的,只是在物聯(lián)網(wǎng)時代之后,才變得特別突出。很多接入物聯(lián)網(wǎng)的智能家居產(chǎn)品,例如智能掃地機器人、智能電冰箱、空調機等,都可能會發(fā)生類似的隱私侵害或者個人信息泄露事件。一旦發(fā)生這種事件,如何追責就成為一個重要的問題。嚴格來說,相關的行為是不法分子利用不法手段實現(xiàn),與產(chǎn)品的生產(chǎn)者并無關系,但考慮到這就是智能化產(chǎn)品帶來的一種典型的風險,《產(chǎn)品質量法》應當在立法中對此明確作出規(guī)定,也就是說,生產(chǎn)智能化產(chǎn)品的生產(chǎn)者,應當注意采取必要的技術措施,來保障用戶的個人信息不被不法收集,用戶的隱私不被侵犯。并且一旦發(fā)生了類似的事件之后,產(chǎn)品的制造者有責任首先采取必要的安全防護措施防范類似事件的再次發(fā)生,另外也有責任配合主管部門進行調查。
類似的因為產(chǎn)品的智能化所引發(fā)的特殊責任,還有個人信息保護責任。這是因為智能產(chǎn)品的使用在很大程度上依賴于對用戶個人信息的收集和利用。例如,系統(tǒng)維護的工作可能要依賴于對用戶使用行為數(shù)據(jù)的收集和分析,自動駕駛的實現(xiàn)也依賴于對行駛數(shù)據(jù)的收集和處理,這些都可能會涉及個人信息保護的問題。我國已經(jīng)制定了《個人信息保護法》。這一法律已經(jīng)在2021年11月1日起開始實施。從責任的法律屬性來看,智能化產(chǎn)品的制造者違規(guī)收集用戶的個人信息,當然構成《個人信息保護法》所規(guī)制的違法行為,不能被界定為某種意義上的產(chǎn)品責任,但考慮到這為未來社會中與產(chǎn)品的使用與消費密切相關的法律問題,因此有必要在《產(chǎn)品質量法》的修訂中,以專門的條文來進一步明確智能化產(chǎn)品的制造者,也必須要尊重用戶的個人信息權益,尊重用戶的隱私權,不能違法違規(guī)收集和處理用戶的個人信息。如果有違法行為,應當根據(jù)《個人信息保護法》的規(guī)定承擔相應的責任。
產(chǎn)品的高度智能化可能會導致一些傳統(tǒng)的《產(chǎn)品質量法》所不涉及的特殊的社會風險,對此也應該在法律層面上予以適當?shù)幕貞>唧w來說,如果高度智能化的產(chǎn)品涉及到相關算法的運用,可能會對社會不特定的公眾的安全造成重大影響,在這種情況下,最好在《產(chǎn)品質量法》中列出專門的規(guī)定,要求產(chǎn)品的制造者需要遵守國家有關算法、人工智能領域的法律法規(guī)以及技術倫理準則的要求。
相對于傳統(tǒng)的工業(yè)品而言,高度智能化的產(chǎn)品在運行中可能會涉及產(chǎn)品自身作出決策的問題,例如自動駕駛汽車,以及未來的更多種類的自動化運行的產(chǎn)品(例如智能醫(yī)療檢測設備等),都可能會基于一定的算法,來自主作出決策。在這種情況下,如果算法的設定存在問題,一方面可能涉及廣義上的產(chǎn)品責任問題,例如錯誤地判斷道路上的交通狀況,然后作出危險的決策;另外一方面也可能會引發(fā)公眾安全問題,例如智能醫(yī)療設備錯誤地介入式手術等情況。這些風險在傳統(tǒng)的產(chǎn)品中一般而言都不存在,因為都有人的因素的介入。但是隨著人工智能技術的發(fā)展,產(chǎn)品的智能化程度不斷提高。很多先前基于人的判斷作出的決策,都交由高度智能化的機器來做,并且實際上人對于機器的決策機制并不十分地了解。這就導致一個系統(tǒng)性的風險。對于這樣的問題,現(xiàn)代法律體系中有人工智能的法律規(guī)制體系,從安全防范、技術倫理等角度作出規(guī)定。但嚴格來說,人工智能的運用,不可能是憑空的,而是都必須依附于特定的產(chǎn)品來實現(xiàn)。在這種情況下,運用了一定程度人工智能技術產(chǎn)品的生產(chǎn)者責任,自然需要結合考慮人工智能規(guī)制法律體系對生產(chǎn)者所設定的各種義務。而《產(chǎn)品質量法》在修訂中自然也需要對這一問題予以關注,如此才可以使得各項法律制度能夠有機銜接起來。
從整體來說,現(xiàn)代信息技術、芯片技術、自動控制技術、人工智能技術,都在重新塑造產(chǎn)品形態(tài)。對于這種新的產(chǎn)品形態(tài),本文以智能化產(chǎn)品這一名稱來概括。隨著產(chǎn)品形態(tài)的發(fā)展,特別是智能化趨勢,與之相對應的《產(chǎn)品質量法》所關注的問題也應該隨之發(fā)展。這種發(fā)展一方面表現(xiàn)為《產(chǎn)品質量法》需要與諸如《個人信息保護法》之類的法律進行銜接,另外也表現(xiàn)為需要拓展責任的范圍,以及產(chǎn)品生產(chǎn)者所需要承擔的義務的擴張。
(作者為北京大學法學院教授、博士生導師)
《中國質量報》

您當前位置:
