Le basilic de Roko est une expérience de pensée selon laquelle une superintelligence artificielle (ou une intelligence artificielle générale), par ailleurs bienveillante, serait incitée à créer une simulation de réalité virtuelle pour torturer toute personne connaissant son existence mais n'ayant pas directement contribué à son avancement ou à son développement, afin de stimuler ledit avancement[1],[2]. Il trouve son origine dans un article publié en 2010 sur le forum LessWrong, un forum technique axé sur la psychologie, la philosophie ou encore la recherche de rationalité[1],[3],[4]. Le nom de basilic de Roko est issu du basilic, une créature mythique capable de détruire ses ennemis avec son regard.
Bien que la théorie ait été initialement rejetée par de nombreux utilisateurs de LessWrong, car considérée comme n'étant que des conjectures ou des spéculations, le cofondateur de LessWrong, Eliezer Yudkowsky, a signalé que les utilisateurs avaient paniqué en lisant la théorie, en raison de la stipulation selon laquelle connaître la théorie et son basilic rendait vulnérable au basilic lui-même[1],[5]. Cela a conduit à une discussion sur l'interdiction du basilic sur le site, laquelle interdiction a duré cinq ans[1],[6]. Cependant, ces rapports ont par la suite été rejetés comme étant exagérés ou sans importance, et la théorie elle-même a été rejetée comme absurde, y compris par Yudkowsky lui-même[1],[6]. Même après la discréditation du message, le basilic de Roko est toujours utilisé comme exemple de principes tels que la probabilité bayésienne et la religion implicite[5]. Il est également considéré comme une version simplifiée du pari de Pascal[4].