Luke Muehlhauser, Loutie Helm. 2012. "Intelligence Explosion and Machine Ethics"
倫理理論に対して、『超AIがその理論にしたがったら世界がどうなるか』という観点からテストできる。人間の認知の特性を調べたところ、AI倫理としては、理想的な情報下で理論と人々の直感がどうバランスをとるかを考える『整合性のある外挿的意志作用coherent extrapolated volition』というアプローチが有効だと思われる。
AIに対して倫理を埋め込む利点は①倫理理論の発展、②ロボットが倫理的にふるまうことを保証、③理想的な倫理行為者の誕生というものがある。人間の場合は倫理に感情が必要だが、AIの場合は感情なく倫理法則にしたがうことによりより倫理的になりうる。倫理的AIを製作することは倫理的に求められるかもしれない。
Stanford Encyclopedia of Philisophy "Computing and Moral Responsibility"
コンピュータが倫理的責任を持つ条件についてはDennetは高階の信念、Sullinsは十分な意図表現の抽象化とするが、道徳的推論は情報処理で理解できないという反論がある。Moorは倫理AIを倫理性を持つデザインが施されたimplicit ethical agents、倫理的行動をとることができるexplicit ethical agents、倫理的主体とみなされるfull ethical agentsに分けた。Floridi and Sandersはresponsibilityとaccountabilityを分け、ロボットや犬は後者としての責任はあるが前者としての責任はないとした。
Ryan S. Tokens "Ethical Implementation: A Challenge for Machine Ethics"
AI倫理はカント的義務論アプローチが有効であるが、カント倫理を基盤とした人工道徳行為者は道徳をプログラムされており自由ではないのでカント的ではない。たとえそれ自身がカント的であろうとも、人口道徳行為者の創造は主体を単なる手段としているためカント的ではない。