現正處於AI發展史上的關鍵時期,人類以前所未有的規模和速度在各個領域應用AI技術。隨著AI使用日漸普及,社會上興起關於倫理、責任、信任的討論,企業也需在使用AI提升效率的同時做好風險管理。尤其現階段AI仍有諸多不完善之處,例如圖像辨識無法精確判別差異、以及招聘建議可能含有偏見...等,種種例子顯示人們並不能完全信任AI。 能源管理及自動化領域的數位轉型領導者法商施耐德電機Schneider Electric建議企業在開發與使用AI時,應堅持遵守以下三項準則:
此外,上下文情境、數據來源、解釋方式都可能導致AI產生的結果有偏誤或偏見,這讓AI信任議題變得極為複雜。以機器學習(ML,Machine Learning)來說,就算風險與其他數位技術類似,但由於系統更加複雜,風險的規模便更大、更難避免、更難追蹤、更難解釋。若想克服這些挑戰,建立可信任的AI,有以下兩點關鍵:
人們不能盲目相信AI,企業也要選擇具有專業知識且可信任的AI供應商合作,確保服務符合最高標準的倫理道德、數據隱私、網路安全。施耐德電機提供關鍵設施的解決方案,包含國家電網、核電廠、醫院、汙水處理等,因此深知道德與信任的重要性,作為一家可信任的企業、持續開發可信任的AI解決方案,並以同樣負責任的方式導入AI,確保服務與產品兼具安全、高效、可靠、公正、隱私。 |
首頁|手機版|Chip123 科技應用創新平台 |新契機國際商機整合股份有限公司
GMT+8, 2025-1-26 03:35 PM , Processed in 0.104006 second(s), 15 queries .
Powered by Discuz! X3.2
© 2001-2013 Comsenz Inc.