由科幻大師Issac Asimov提出的原則。多數科幻作品中的機器人至少需依此三個原則來決定自己的行動。
一、機器人必需保護人類(不得傷害人類)。
二、在不違反第一條的前提下,機器人需服從人類的命令。
三、在不違反第二條的前提下,機器人需保護自己。
實際上這三條規則可以說是漏洞百出,就連Asimov在自己的「機器人」系列中都用這些規則來折磨自己筆下的機器人角色……
另外,邏輯程次夠高的機器人將有可能發展(或者該說「領悟」?)第零原則「機器人的行動需符合人類全體的最高利益」,而第一條則必需在不違背第零原則的前提才成立。這似乎很合理,但到最後卻會造成機器人的「道德」矛盾……
因為第零原則並不是一個確定的事件。機器人將會面臨「不確定是否該傷害少數『可能』造成全體人類損害的人」的矛盾他們可能因此而做出甚至到達「種族剷除」等等根本不符人類思維的行動。
在洛克人X的封印文(見於X第一作的OP)中,第一條的規則被萊德博士所引用。由於X具有完全的思考性能,可以自行打破三原則,故萊德博士為此而十分擔憂。