ディープフェイクとイカロスの翼 ~程々にしないと痛いしっぺ返しを喰らう~

【 ヘンリー・アーダー氏のコメントより 】

 

『 私達は新しい画像合成技術がもたらす未来へ足を踏み入れつつあります。 

  この技術は大半は良い目的で使う為に開発が進められていますが、長期的にどのような影響を社会に及ぼし得るのかという議論は進んでいません。 

  あるいは、この技術がどう活用される未来を私達が望んでいるかも。 』

 

 

『 シンセティック・メデイアには使い方次第で計り知れない可能性があります。 

  例えば、合成した音声を使えば病気で声を失った人達が話せるようになります。 

  そうした有益な使い方がある一方で悪用されるケースも数多く報告されています。 

  例えばアダルトビデオに一般の女性の顔を合成したディープフェイクの動画が創られる被害が出ています。 

  

  サイバーセキュリティの分野でも新たな脅威となっています。 

  合成された顔や音声を使って別人になりすまし、企業や個人を騙して金を巻き上げる事も可能だからです。 

  こうしたリスクは急速に高まっています。 

  同時に倫理的に許される事なのかが曖昧な事例も数多く見受けられます。 

  現時点ではそれらが果たして許容されるのか、厳しく管理されるべきなのか、あるいは全面的に排除されるべきなのかについてコンセンサス(合意)が形成されていません 』

 

『 (フェイク動画が多くの人に真実と捉えられてしまう事に対し)今まで動画は真実を映し出すもので、誤魔化す事は出来ないと考えられて来ましたが、それが間違いだと思い知らされました。 

  ディープフェイクについても同じ事が言えますが、人は自分が好きな事柄や、自分の考えを裏付けてくれる動画を見ると他の人とシェア(共有)したくなります。 

  こうした動画は思い込みによって合理的ではない判断をしがちな人をターゲットにしています。 

  Qアノン(過激な陰謀論を信じるグループ)の陰謀論を信じる人達、政治的に右であれ左であれ、極めて偏っている人達に共通する特性です。 』

 

 

『 もう一つの現実を信じる人達を見ていると、人が如何に先入観や強い信念に固執するかが、よく分かります。 

  ディープフェイクなどの技術がもっと普及した時に問題になるのは、あらゆる映像がディープフェイクかもしれないという疑いを持たれる事です。 

  実際、そうである可能性が充分あります。 』

 

『 私が懸念しているのはディープフェイクが本物と見分けが付かなくなってしまう事。 

  そうなったらメデイアに対して批判的な目を持つ見識ある人でも騙されてしまいます。 』

 

『 突き詰めると、国民の不平不満の原因となっている根深い問題があります。 

  急速なグローバル化や、個人や集団としてのアイデンティティの喪失、あるいは経済的な困窮などです。 

  現代社会は急速に、そして複雑に変化し続けています。 

  しかし、私達人類はその変化のスピードに適応出来るほど進化していないのです。 』

 

 

【 認知行動療法に活用出来るディープメモリー 】

二人のコメントの紹介はここで終了です!

様々な捉え方や考えや意見があるのが自然で当然なので、「正誤」や「是非」などに囚われる必要性は全くありません!

 

なぜなら、ディープフェイクを意図して創り出す事で生まれる《 新しい記憶である「ディープメモリー」 》というものがあり、不安障害やトラウマや依存症の克服などの改善や治療の為に活用されるケースもあるからです。

 

例えば、今の自分だと怖さや不安から到底出来ない「行動」があるとします。

そして、例えば高所を楽しんで歩いている「別人の顔」を自分の顔に合成し、「嘘で偽物の自分」の動画を客観的に繰り返し見るという活用です。

これは、いわゆる認知行動療法の一形態と言えます。

 

 

勿論、このような「記憶の上書き」が本当に最良の結果や影響のみをもたらすのか(負の影響は生じないのか)などは、ちゃんと《 別に考え検証する必要性がある 》と、あくまで私個人としては感じる面もあります。

 

また、ディープフェイクへの対処法に《 ラテラルリーディング 》があります。

これは「(フェイクニュースやディープフェイクなどの)情報が本当で正確であるかを複数の情報源で確認する事という手法であり、効果があると言われています。