ディープフェイク動画のリツイートは「犯罪」!?


弁護士の最所です。生成AIを利用したディープフェイク動画に関する報道が相次いでなされています。画像データを改変することは、以前から行われていました。芸能人の顔を他の女性の裸の写真と合成して作成される「アイコラ」が、その典型的なものです。

近年では、ハードウェア及びソフトウェアの発達によって、これまでは、静止画でしか作成されなかったものが、動画で作成されるようになり、さらには、生成AIの登場によって、画像だけでなく、音声の合成もなされるようになりました。

作成している人は面白半分なのかもしれませんが、勝手に、自らの画像や音声が使われてしまっている立場の人からすれば、自らがやってもいないことを、あたかも、やってしまったかのように拡散されてしまう、これは非常に怖いことですし、恐ろしいことです。

勝手にディープフェイク動画が作成され、それが拡散されてしまった場合、刑法上の犯罪としては、通常は、名誉毀損罪(刑法230条1項:3年以下の懲役若しくは禁錮又は50万円以下の罰金)が成立します。

報道されている岸田総理のケースで言えば、「公の場でわいせつな言葉を発するような人物」であるとの事実摘示ということになりますし、裸の動画が合成されたケースでは、「裸の動画を撮影させるような人物である」との事実摘示と捉えることができますので、いずれにしても、被害を受けた人の社会的評価を低下させる内容の動画を拡散させたとして、名誉毀損罪が成立することになります。

また、元となる動画の著作者の立場からすれば、自らの著作物が勝手に改変されることになりますので、同一性保持権の侵害にも該当することになります。

ディープフェイク動画を作成し、拡散させる行為は、それ自体、犯罪に該当します。私たちが気をつけなければならないことは、安易に拡散させないということです。

ディープフェイク動画を、リツイートした場合には、リツイートによって、新たに、より広範に、その人の社会的評価を低下させる表現を広めたことになりますので、拡散した人も、名誉毀損の責任を負うことになります。

インターネット上では、真偽不明の情報が、面白半分で拡散されてしまいます。それがデマを生み、取り返しの付かない重大な事態を引き起こすことにもなりかねません。

インターネット上の情報に接した場合には、それが、本当に拡散させて良い情報かどうかについて、一度立ち止まって、冷静に判断する必要があります。

今後、ますます、実際の映像との区別が付かなくなってくることを考えると、冷静さというものが特に必要になってきます。

情報の出所を踏まえて、信頼に値する情報か否か、知らず知らずのうちに加害者とならないよう、情報についての選択眼を磨いていかなければなりません。