摘要:人工智能的發(fā)展在帶來(lái)社會(huì)福祉的同時(shí)也面臨著倫理框架建設(shè)問(wèn)題。廣義上的人工智能倫理框架建構(gòu)可以包括狹義上的倫理框架研究以及倫理決策方法。目前國(guó)內(nèi)對(duì)倫理框架研究討論較多,對(duì)具體的倫理決策的研究幾乎為零,尚未形成人工智能倫理框架建構(gòu)。由此可通過(guò)比較法的路徑,從人工智能倫理控制權(quán)的適用原則,公平性的應(yīng)用原則以及注重社會(huì)福祉的應(yīng)用總目標(biāo)來(lái)構(gòu)建我國(guó)的人工智能倫理框架。此外,通過(guò)對(duì)“自上而下”以及“自下而上”兩種倫理決策方式的利弊分析,提出“人工智能程序”模式的第三條道路。
注:因版權(quán)方要求,不能公開(kāi)全文,如需全文,請(qǐng)咨詢(xún)雜志社