每日經濟新聞 2024-09-22 21:52:01
每經記者 徐肖逍 每經編輯 陳俊杰
你聽說過靠猴子撐起的上市公司嗎?
2024年9月3日,益諾思登陸上交所科創(chuàng)板。益諾思的主營業(yè)務是提供生物醫(yī)藥在非臨床階段的研究服務,需要借助大量的實驗動物驗證藥性,而實驗用猴是其中參考價值最高的。
怎么對待這些實驗動物,成為一個備受關注的話題。動物倫理是科技倫理的重要組成部分,而科技倫理是上市公司ESG的核心議題之一。
視覺中國
每經品牌價值研究院通過分析A股及港股上市公司2023年度ESG報告發(fā)現,關注動物倫理、人工智能倫理及信息倫理,是上市公司ESG報告中科技倫理議題的三大重點。
上市公司如何踐行科技倫理議題?商道融綠董事長郭沛源在接受《每日經濟新聞》記者采訪時表示,公司在推出新技術或創(chuàng)新商業(yè)模式時,應進行倫理評估。需要重點關注兩個環(huán)節(jié):一是研發(fā)過程中的風險評估,類似于醫(yī)藥行業(yè)在開發(fā)新藥時設立倫理委員會,制定特定行業(yè)中的規(guī)范和要求;二是建立干預或糾錯機制,以便在出現問題時能夠及時發(fā)現并糾正。
動物倫理:實驗猴與“3R原則”
曾經,實驗猴的處境很悲涼。它們從出生起就被關在狹小和骯臟的籠子里,用于各種實驗和醫(yī)學研究,經歷各種折磨和痛苦,如被注射毒素、感染病毒、切除器官等,最后也很難善終。
隨著ESG理念越來越受重視,實驗猴的命運也在發(fā)生改變。它們在高低不同的棲息架、秋千、水泥管、不銹鋼圍等設施上自由玩耍,定期還可以更換自己的玩具,甚至邊玩還可以邊聽音樂!
這是康龍化成在《2023年度環(huán)境、社會及管治報告》發(fā)布的情景。改善實驗動物條件的積極行動,是實驗動物倫理的重要組成部分。
對于實驗動物,英國科學家W.M.S. Russell和R.L. Burch在1959年提出了著名的“3R原則”,即替代(Replacement)、減少(Reduction)和優(yōu)化(Refinement)。替代原則鼓勵使用無生命材料、低等動物等方法來替代高等動物的使用;減少原則要求在保證獲取必要信息的前提下,通過改進實驗設計和操作程序,減少使用的動物數量;優(yōu)化原則要求改進實驗程序和動物飼養(yǎng)條件,減少實驗過程中動物的痛苦和不適。
上海醫(yī)藥強調自己嚴格遵循“3R原則”,表示在科學研究中,使用較少量的動物獲取同樣多的實驗數據,或使用一定數量的動物獲得更多實驗數據。同時,使用其他方法而不用動物進行實驗,或使用低等動物代替高等動物達到同樣目的。
醫(yī)藥龍頭藥明康德也表明自己引入“3R原則”,通過定期消毒、溫度監(jiān)測、淡水供應和改善活動空間等方式不斷完善動物的生活環(huán)境;嚴格限制殺蟲劑等抗生素的使用,有效地減少對動物造成的傷害、疼痛和壓力。
在郭沛源看來,關于動物倫理,一個顯著的挑戰(zhàn)在于不同群體之間對此問題的看法存在較大差異。例如,養(yǎng)寵物的人與不養(yǎng)寵物的人可能對動物倫理的接受程度有所不同。這背后的核心問題在于人類利益與動物權益之間如何平衡。
人工智能倫理:新興領域引發(fā)各界熱議
“跟我說點我不知道的”“給我把那個藥的說明書讀一下”“我腳走路走多了會痛,給我推薦的路線要走路少一點的”……這是騰訊控股邀請149位中老年人參與大模型實驗,他們所提出的問題。
為了讓老年人、殘障朋友、困境女性、留守兒童、鄉(xiāng)村與城市的低收入者等社會多元群體,享受到AI發(fā)展帶來的自我賦能與科技福祉,騰訊正在嘗試探索一項面向全社會的行動,即“AI向善語料庫共創(chuàng)行動”。這個語料庫被期待能夠為上述弱勢群體提供既能解決問題又能實現共情的智能回答。
人工智能方興未艾,相關倫理也引發(fā)各界熱議。因為隨著AI技術的快速發(fā)展和廣泛應用,它對社會各個方面產生深遠影響,同時也產生了一系列倫理問題,如算法偏見、因決策不透明帶來的信任問題、人機關系等。
對于這些問題,“BAT”三巨頭分別組建了科技倫理委員會,希望構建安全的、令人信賴的大模型,打造平等及共享的人工智能。
阿里巴巴在《2024阿里巴巴環(huán)境、社會和治理報告》中以單獨的章節(jié)來闡述,其中特別強調應對大模型帶來的風險。2024財年,根據大模型生命周期不同階段,阿里巴巴在訓練前、訓練中和上線發(fā)布的三階段均建立一系列的預防措施和應對解決方案。
具體來看,阿里巴巴在大模型訓練前重視數據的質量,選擇可信度高的數據源;大模型訓練中,提升模型生成內容的安全性;大模型上線發(fā)布后,對提問和回答進行風險判斷并過濾有害內容,對大模型進行正確的價值引導等。
百度在自己的ESG治理欄目中,建立了獨立的百度AI倫理舉措頁面,包括設立科技倫理委員會、開展AI倫理培訓、參與AI倫理標準制定及研發(fā)可解釋的AI等。
對于人工智能倫理,郭沛源表示了自己的擔憂。他認為,這是一個新興領域,他們缺乏經驗,對相關問題還難以把握,包括不確定它會帶來哪些具體問題,尤其是它是否會發(fā)展出超越人類智慧的能力,或者形成自我意識。
“這些都是未知的,我們沒有現成的答案。”郭沛源說,“目前我們對人工智能倫理的討論,主要圍繞一些基本框架和原則在進行。”
信息倫理:數據安全有三把“鎖”
“方寸之地,不容有失!”這是科大訊飛在2023年定期開展的一場數據安全培訓的口號。
根據科大訊飛2023年度的ESG報告,當年完成安全賦能培訓60余場,包括《安全合規(guī)訓練營》《內容安全合規(guī)指引介紹》《生成式人工智能產品合規(guī)》等系列專題課程。
數據安全培訓,提高安全意識和相關技能,是科大訊飛保障網絡安全的一把“鎖”。
同時,它還自研了安全大數據基礎能力(SOC)和安全自動化編排(SOAR)建設,結合Web應用防火墻(WAF)、流量安全設備、主機入侵檢測系統(tǒng)(HIDS)等多個安全技術平臺,在技術和設備層面加強防御能力,作為保障網絡安全的第二把“鎖”。
第三把“鎖”則是成立了專門的應急響應組,從準備、檢測、抑制、根除到回復和跟蹤,都有全流程的應急響應方案。
科技的進一步發(fā)展,讓科技倫理問題也越來越凸顯。上市公司在ESG實踐中,如何更好地做好相關工作?
郭沛源認為關鍵是公司在推出新技術或創(chuàng)新商業(yè)模式時,應進行倫理評估。他認為,目前這種評估相對較少,建議從重點行業(yè)開始實施,如生物醫(yī)藥和人工智能等。
封面圖片來源:視覺中國
如需轉載請與《每日經濟新聞》報社聯(lián)系。
未經《每日經濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關注每日經濟新聞APP