はじめに:そのビデオ会議は、存在しなかった。37億円が消えた日
香港にある多国籍企業の財務担当者は、英国本社にいるはずの最高財務責任者(CFO)から一通のメールを受け取りました。内容は「秘密の取引」に関する送金指示。彼は不審に思いました。しかし、その疑念はすぐに打ち消されることになります。CFOからビデオ会議への招待が届いたのです 1。
会議に参加すると、画面には見慣れたCFOの顔がありました。それだけではありません。ロンドンや他の支社にいるはずの同僚たちの顔も複数並んでいます。彼らは皆、この取引について議論し、送金を促しました。視覚と聴覚で本人たちだと確認できたことで、彼の最後の警戒心は解かれました。指示通り、彼は複数回にわたって送金手続きを実行。その総額は2億香港ドル、日本円にして約37.5億円にも上りました 1。
しかし、衝撃の事実が後に発覚します。そのビデオ会議に実在した人間は、彼ただ一人だったのです。CFOも、他の同僚たちも、すべてが精巧に作られた偽物――ディープフェイクでした。犯罪者たちは、インターネットで公開されていた会社のプロモーション動画などから役員たちの顔と声を学習させ、リアルタイムで動く偽のアバターを作り上げていたのです 1。
これはSF映画の脚本ではありません。サイバー犯罪の新たな現実です。この記事では、ディープフェイク技術の恐るべき可能性を解き明かし、日本国内で既に起きている事件を紹介し、そして最も重要なこととして、あなた自身と、あなたの家族、ビジネスをその脅威から守るための知識と具体的な方法を解説します。
第1章:ディープフェイクとは何か?―仮面の裏にあるAIの魔法
ディープフェイクとは、一言で言えば、AI(人工知能)が本物と見分けがつかないほどリアルな偽の動画、画像、音声を作り出す技術のことです 2。その名前は、AI技術の一種である「ディープラーニング(深層学習)」と、「フェイク(偽物)」という言葉を組み合わせたものです 3。
その仕組みは、専門用語を避けて例えるなら、非常に優秀な肖像画家のようなものです。
まず「学習フェーズ」があります。AIという名の画家が、特定の人物を描けるようになるために、その人物の顔や声が記録された何百、何千もの写真や動画をあらゆる角度から研究します。表情の癖、話し方、独特の仕草まで、すべてを徹底的に学びます 4。
次に「生成フェーズ」が訪れます。すべてを学習し終えた「画家」は、その人物が実際には言ってもいないし、してもいない、全く新しいオリジナルの動画や音声をゼロから作り出すことができるのです 4。これは単なる切り貼り(コラージュ)ではありません。学習したデータに基づいて、完全に新しいものを「生成」しているのです。
この驚異的なリアルさを実現している中核技術が「GAN(敵対的生成ネットワーク)」です。これは、二人のAIを競わせる仕組みと考えると分かりやすいでしょう 5。
- 一人は「生成AI(偽造職人)」。偽の画像や音声を作り出します。
- もう一人は「識別AI(鑑定家)」。それが本物か偽物かを見破ろうとします。
この二人が何百万回も勝負を繰り返すことで、「偽造職人」は「鑑定家」を騙す腕をどんどん上げていき、最終的には鑑定家でも見破れないほど精巧な偽物を生み出せるようになります 5。
かつてディープフェイクの作成には、高性能なコンピュータと専門知識が必要でした 3。しかし、技術の進歩はその状況を根底から覆しました。今や、スマートフォンアプリやウェブサービスを使えば、誰でも手軽にディープフェイクを作成できてしまうのです 9。実際に、日本の岸田首相の偽動画は、投稿者によれば約1時間で制作されたと報告されています 12。
この強力な技術の「民主化」こそが、脅威の本質を変化させました。もはやディープフェイクは、国家レベルの工作員や巨大な犯罪組織だけが使う特殊な武器ではありません。不満を抱いた従業員、学校のいじめっ子、あるいは末端の詐欺師でさえ、混乱を引き起こし、詐欺を働くためのツールを手にすることができるようになったのです。私たちは、ディープフェイクを一部の専門家が扱うハイテクな脅威としてではなく、ごくありふれた日常的なリスクとして捉え直す必要があります。
第2章:危険の4つの顔:ディープフェイクは私たちの世界をどう脅かすか
ディープフェイクの脅威は多岐にわたりますが、特に私たちの生活に直接関わる4つの側面が存在します。日本国内の事例を中心に、その危険性を具体的に見ていきましょう。
脅威1:あなたのお金が狙われる―AI詐欺の台頭
ディープフェイクは、従来の詐欺を恐ろしいレベルにまで進化させています。もはや、怪しいメール一通で終わる話ではありません。そのメールの後には、あなたの「上司」や「著名人」を名乗る人物から、本物そっくりの声や映像で電話がかかってくるのです 13。これは、人間の信頼という最も基本的な心理的弱点を突く「ソーシャルエンジニアリング」攻撃の一種です 14。
事例1:前澤友作氏らを騙る投資詐欺
ZOZOの創業者である前澤友作氏のような著名な実業家の顔と声を無断で使用した、偽の投資広告がSNS上で大量に拡散されています 12。これらの広告では、AIが生成した本物そっくりの音声で、あたかも本人が投資の極意を明かしているかのように見せかけ、被害者を詐欺サイトへと誘導します 12。
事例2:CEO詐欺とビジネスメール詐欺(BEC)
海外では、ある企業のCEOの声が完璧に偽装され、それを信じた部下が約2600万円を騙し取られる事件が発生しました 14。日本企業を狙った同様の複合攻撃(メールと偽電話の組み合わせ)も報告されており、幸いにも未然に防がれたものの、その脅威はすぐそこまで迫っています 12。
犯罪の手口は、単純なテキストベースのフィッシングメール 17 から、巧妙なビジネスメール詐欺(BEC) 14 へと進化しました。そして今、そのBECにディープフェイクによる偽の音声通話 13 を組み合わせ、さらには冒頭で紹介した香港の事例のように、複数の人物が登場する偽のビデオ会議 1 へとエスカレートしています。これは、犯罪者たちが私たちの信頼や確認プロセスを段階的に、そして意図的に破壊しようとしていることを示しています。この流れが意味するのは、もはや単一の通信手段(メールだけ、電話だけ)で重要な判断を下すことはできないということです。高額な送金などの重要な確認は、攻撃者がアクセスできない、完全に独立した手段で行う必要があります。
脅威2:真実に対する武器―フェイクニュースと社会の混乱
ディープフェイクは、政治的な混乱を引き起こし、選挙を操作し、メディアや政府といった社会基盤への信頼を破壊する武器にもなり得ます 3。
事例3:岸田首相の偽ニュース放送
日本の岸田文雄首相が下品な発言をしたかのような偽動画がSNSで拡散されました 12。この動画が特に危険だったのは、実在する日本テレビのニュース番組のロゴやテロップを完全に模倣しており、一見しただけでは本物の放送と見分けがつかなかった点です 12。
国際的には、ウクライナのゼレンスキー大統領が兵士に投降を呼びかけるディープフェイク動画が、戦争における心理戦の道具として使われた事例もあります 18。これは、ディープフェイクが単なる詐欺ツールではなく、情報戦の兵器であることを明確に示しています。
脅威3:アイデンティティの窃盗―あなたの顔があなたを攻撃する
ディープフェイクは、個人の尊厳を深く傷つける犯罪にも利用されます。
不同意のポルノコンテンツ
芸能人や一般人の顔を、本人の同意なくポルノ映像に合成する悪質な行為が後を絶ちません 8。日本国内でも、この種の犯罪で逮捕者が出ています 8。
事例4:卒業アルバムの悲劇
名古屋では、小学校の教員が児童の卒業アルバムの写真を利用し、AIツールでわいせつな画像を生成するという、信頼を根底から裏切る衝撃的な事件が発生しました 12。これは、未成年者がいかに無防備であり、その個人情報がいかに危険に晒されているかを物語っています。
デジタルキーの突破
さらに、ディープフェイクは顔認証や声紋認証といった生体認証システムを突破する可能性があります。あなたの顔の偽動画が、あなたのスマートフォンをロック解除したり、決済を承認したりするかもしれないのです 8。これはもはや理論上の話ではなく、研究によって現実的な脅威であることが示されています 18。
脅威4:信頼の崩壊―「見ることは信じること」ではなくなる社会
最終的にディープフェイクがもたらす最も深刻な影響は、社会全体の「信頼」の崩壊かもしれません。あらゆる動画や音声が偽造可能になったとき、私たちは何を信じればよいのでしょうか。これは、証拠や事実といった、私たちが共有する現実の基盤そのものを揺るがし、社会の分断を加速させる危険性をはらんでいます 3。
表1:ディープフェイクの主な脅威と実例の概要
|
脅威カテゴリ |
具体的な手口 |
国内・海外の事例 |
主な影響 |
|
金融詐欺 |
有名人を騙る投資詐欺広告 |
前澤友作氏や著名投資家を騙るSNS広告 12 |
個人の金銭的損失、著名人のブランド毀損 |
|
CEOや上司になりすます送金指示 (BEC) |
香港での37億円ビデオ会議詐欺 1、海外CEOの音声詐欺 14 |
企業の巨額な金銭的損失、取引の信頼性低下 |
|
|
政治・社会的操作 |
政治家の偽情報発信 |
岸田首相の偽ニュース動画 12、ゼレンスキー大統領の偽投降呼びかけ 18 |
世論操作、選挙への介入、社会不安の増大 |
|
偽の災害映像による混乱 |
AIによる架空の災害映像がSNSで拡散されるリスク 8 |
救助活動の妨害、パニックの誘発 |
|
|
個人の権利侵害 |
顔や声を無断でポルノ等に利用 |
芸能人の顔を使ったフェイクポルノでの逮捕事例 8 |
深刻な精神的苦痛、名誉毀損、性的搾取 |
|
個人情報(卒業アルバム等)の悪用 |
名古屋の教員が児童の卒業アルバム写真でわいせつ画像を生成 12 |
未成年者への性的搾取、信頼関係の破壊 |
|
|
セキュリティ侵害 |
顔認証・声紋認証システムの突破 |
顔認証を突破して不正な口座開設が可能であるとの研究結果 18 |
不正アクセス、個人情報窃盗、金融資産の盗難 |
第3章:五感を研ぎ澄ませ―ディープフェイクを見破る実践ガイド
技術の進化により、ディープフェイクを見破ることはますます困難になっていますが、それでも多くの偽物にはまだ微細な欠陥が残っています。デジタル探偵になったつもりで、以下のチェックリストを実践してみましょう 8。
視覚的な違和感 (Visual Red Flags)
- 目とまばたき: まばたきの回数が不自然に少ない、または全くしないのは、典型的な兆候です。AIは自然なまばたきの再現を苦手とすることがあります 8。また、瞳の光の反射が不自然だったり、虚空をじっと見つめているように見えたりしないか確認しましょう 8。
- 肌の質感と影: 肌がワックスを塗ったように滑らかすぎたり、不自然に均一だったりする場合や、周囲の照明と影の落ち方が一致していない場合は注意が必要です 25。
- 顔の輪郭と髪の毛: 顔と首、あるいは髪の毛の境界線がぼやけていたり、不自然なノイズが見えたりすることがあります。髪の毛一本一本が不自然に見えることもあります 27。
- 口の動きと同期: 話している声と唇の動きが微妙にずれていないか、よく観察してください 23。
聴覚的な違和感 (Audio Red Flags)
- 声のトーン: 声が単調で感情に乏しい、ロボットのよう、奇妙な間がある、リズムが不自然、といった特徴はAIが生成した音声の可能性があります 25。
- 背景ノイズ: 現実世界の録音には、通常何らかの環境音が入っています。背景の音が全くしない、無音状態もまた不自然な兆候です。
最強の武器:コンテキスト・チェック (The Ultimate Weapon: The Context Check)
ピクセルや音波の欠陥を探すよりも、はるかに強力な武器があります。それは「状況の確認」です。
- 「これは理にかなっているか?」テスト: これが最も重要なステップです。世界的に有名な企業のCEOが、個人のSNSアカウントで突然、巨額のプレゼント企画を発表するでしょうか?その動画の内容自体よりも、それが置かれている状況(コンテキスト)の方が、真偽を判断する上で多くのことを教えてくれます 28。
- 情報源の確認: SNSでシェアされてきた動画を鵜呑みにしてはいけません。その情報が本物かどうか、公式サイト、公式SNSアカウント、信頼できる大手報道機関のウェブサイトなどで裏付けを取りましょう 18。多くの場合、簡単な検索だけで偽情報だと数分で見抜くことができます 27。
現在、私たちは生成AIと検出技術の「いたちごっこ」の真っ只中にいます。上記のような手動のチェックリストは、現時点での有効な防御策です。しかし、AI技術が進化し、まばたきや肌の質感を完璧に再現できるようになれば、このような視覚的な欠点は消えていくでしょう 3。
そうなったとき、私たちの防御策は、目や耳で感じる「知覚的」な検出から、知識や検証に基づく「認知的」な検出へと移行しなければなりません。つまり、チェックリストは「今日」のためのツールであり、情報源を常に確認し、批判的に考える習慣こそが「明日」のための本質的なスキルなのです。これは五感の戦いから、知性の戦いへの移行を意味します。
第4章:デジタル要塞を築く―あなたと家族を守る方法
ディープフェイクの脅威に対して、受け身でいる必要はありません。積極的に身を守るための予防策を講じることが可能です。
個人としてできること
- デジタル・フットプリントの見直し: あなたの顔や声がはっきりとわかる高品質な写真や動画は、ディープフェイクを作成するための「原材料」になります。SNSなど、不特定多数が見られる場所への個人情報の公開は慎重に行いましょう 9。
- SNSのプライバシー設定を強化: アカウントの公開範囲を「友達のみ」に限定する、他人があなたをタグ付けした写真がタイムラインに表示される前に承認を必須にするなど、プライバシー設定を最大限に活用しましょう。また、見知らぬ人からの友達申請やメッセージには警戒が必要です 9。
- 被害に遭ってしまったら: もし自分の偽画像などを見つけてしまった場合は、冷静に行動してください。
- 証拠を保全する: 投稿画面のスクリーンショットを撮り、URL、投稿日時、アカウント名などを記録します 31。
- 犯人に直接連絡しない: さらなる脅迫や二次被害につながる可能性があるため、絶対に避けてください 31。
- プラットフォームに報告・削除依頼: ほとんどのSNSや動画サイトには違反報告機能があります。それを利用して運営会社に通報し、削除を依頼しましょう 31。
- 公的機関に相談する: 警察のサイバー犯罪相談窓口や、性的な被害の場合は「性犯罪・性暴力被害者のためのワンストップ支援センター(#8891)」などの専門機関に相談してください 24。
企業・組織としてできること
- 二重確認プロセスの徹底: 送金や振込先口座の変更といった重要な依頼があった場合、メールで受けた指示は、そのメールに記載された連絡先ではなく、事前に登録されている電話番号にかけるなど、必ず別の通信手段で二重に確認するルールを徹底します 14。
- 従業員教育の実施: ディープフェイクを利用したビジネスメール詐欺(BEC)など、最新の脅威について従業員を対象とした研修を定期的に行い、組織全体のセキュリティ意識を高めることが不可欠です 29。
- 公開情報の管理: 企業の役員などの高品質な動画や音声は、攻撃者がAIモデルを学習させるための格好の材料となります。公式サイトなどで公開する情報の内容や量について、リスクを考慮した管理が求められます 1。
第5章:結論―テクノロジーを恐れず、理解する
ディープフェイクは強力で危険な技術ですが、決して無敵ではありません。その脅威は現実のものであり、私たちの財産、社会、そして個人の尊厳に影響を及ぼします。
しかし、この記事の目的は、いたずらに恐怖を煽ることではなく、健全な懐疑心を育むことです。私たちが持つべき最強の防御策は、パニックになることではなく、常に「これは本当だろうか?」と一歩立ち止まって考える冷静さと、情報源を確認する基本的な習慣です 9。
テクノロジーの進化を止めることはできません。しかし、それを理解し、賢く向き合うことはできます。この記事で得た知識を、ぜひあなたの友人、家族、そして同僚と共有してください。情報を知る市民が増えることこそが、社会全体をより強靭にする第一歩となるのです。
第6章:ディープフェイクQ&A―専門家が答える10の質問
Q1: そもそも「ディープフェイク」って何ですか?
A: AI(人工知能)が、本物と見分けがつかないほどリアルな偽の画像、動画、音声を作り出す技術のことです。「ディープラーニング(深層学習)」というAI技術と「フェイク(偽物)」を組み合わせた言葉です 2。
Q2: ディープフェイクを作ることは犯罪ですか?
A: 作ること自体が直ちに違法とは限りませんが、使い方によります。他人の名誉を傷つけたり(名誉毀損)、わいせつな画像を作ったり(わいせつ物頒布等)、詐欺に使ったりすれば、もちろん犯罪になります 8。現在、世界中で法規制の整備が進んでいます 33。
Q3: 私のSNSの写真も勝手に使われる可能性はありますか?
A: はい、あります。SNSなどで公開されている写真は誰でも保存できるため、あなたの顔がディープフェイクの素材にされてしまうリスクはゼロではありません。だからこそ、プライバシー設定を見直し、顔がはっきり写った写真の公開は慎重になるべきです 9。
Q4: 今、一番多いディープフェイク詐欺は何ですか?
A: 有名な実業家や投資家になりすまし、「儲かる」と謳って投資をさせる詐欺広告がSNSで非常に増えています 12。また、企業を狙ったCEOなりすましによる送金詐欺(BEC)も深刻な脅威です 13。
Q5: ディープフェイクかどうかをチェックできる無料ツールはありますか?
A: はい、いくつか開発されています。例えば、トレンドマイクロ社がビデオ通話中のディープフェイクを検出する「トレンドマイクロ ディープフェイクスキャン」のベータ版を無料で提供しています 30。ただし、どんなツールも100%完璧ではないので、あくまで補助として使うのが良いでしょう 32。
Q6: 子供をディープフェイクのいじめなどから守るにはどうすればいいですか?
A: まず、自分の顔や友達の顔をむやみにネットに公開しないこと、知らない人と安易に繋がらないことなど、ネットリテラシーを教えることが重要です 9。また、ふざけて友達の顔で合成画像を作ることも、相手を深く傷つける「いじめ」であり、許されないことだとしっかり伝える必要があります 9。
Q7: もし自分のディープフェイク画像や動画をネットで見つけたら?
A: 落ち着いて行動してください。①証拠としてスクリーンショットやURLを保存し、②犯人には連絡せず、③動画が投稿されているサイトやSNSの運営に違反報告をして削除を依頼します。そして、警察のサイバー犯罪相談窓口や、性的な被害であれば「性犯罪・性暴力被害者のためのワンストップ支援センター(#8891)」に相談してください 31。
Q8: 声だけのディープフェイク(音声クローン)も危険ですか?
A: 非常に危険です。声だけでも本人と信じ込ませることができるため、「オレオレ詐欺」の進化版や、企業のCEOの声を真似て部下に不正送金を指示する詐欺が実際に起きています 12。
Q9: 詐欺師はどうやって他人の声のデータを手に入れるのですか?
A: YouTubeの動画、記者会見、SNSの投稿、ポッドキャストなど、インターネット上で公開されている音声データから収集します 1。標的が企業の役員であれば、会社のプロモーション動画などが悪用されるケースがあります。
Q10: これからディープフェイク技術はもっと巧妙になりますか?
A: はい、技術は日々進化しており、今後さらに見分けるのが難しい、精巧なものが増えていくと予想されています 3。だからこそ、特定の技術的な欠点を探すだけでなく、「情報源を確認する」という基本的な習慣を身につけることが、将来にわたって最も有効な対策になります 29。
引用文献
- ビデオ会議の相手は知らない他人だった。香港で37億円のディープ ..., 9月 28, 2025にアクセス、 https://levtech.jp/media/article/column/oversea/detail_521/
- ディープフェイクとは?意味・用語説明 - KDDI Business, 9月 28, 2025にアクセス、 https://biz.kddi.com/content/glossary/d/deepfake/
- AIによって高度化するディープフェイクの脅威と効果的な最新対策 | 早わかりIT用語 | Tech Tips | 富士ソフト株式会社, 9月 28, 2025にアクセス、 https://www.fsi.co.jp/techtips/quick/1277/
- ディープフェイクとは? わかりやすく10分で解説 - ネットアテスト, 9月 28, 2025にアクセス、 https://www.netattest.com/deepfake-2024_mkt_tst
- GAN(敵対的生成ネットワーク)とは?仕組みや種類、活用事例などをわかりやすく解説 - Jitera, 9月 28, 2025にアクセス、 https://jitera.com/ja/insights/33925
- GAN とディープフェイクについて調べたこと - 完全に理解した.com, 9月 28, 2025にアクセス、 https://www.kanzennirikaisita.com/posts/gan-and-deepfake-first-step/
- GAN(敵対的生成ネットワーク)とは?基礎知識やメリットデメリット・活用例を解説 | EAGLYS, 9月 28, 2025にアクセス、 https://eaglys.co.jp/resource/columns/gan
- ディープフェイクとは?悪用対策や悪用事例、生成AIのリスクを解説 - SMSデータテック, 9月 28, 2025にアクセス、 https://www.sms-datatech.co.jp/column/consulting_generativeai-deepfake/
- AIが作る「ウソの世界」ディープフェイクから身を守る方法 | ネット ..., 9月 28, 2025にアクセス、 https://school-guardian.jp/useful/deep-fake-ai/
- 誰でも簡単にディープフェイクを生成!?「DeepSwap」を実際に使ってみた! - AIsmiley, 9月 28, 2025にアクセス、 https://aismiley.co.jp/ai_news/deepswap-ai-deepfake-introduction/
- 楽しさ満点のディープフェイクアプリとウェブサイト14選 - SeaArt AI, 9月 28, 2025にアクセス、 https://www.seaart.ai/ja/blog/deepfake-app-website-ja
- ディープフェイクの事例15選。なりすましや対策・防御の実態を ..., 9月 28, 2025にアクセス、 https://neural-opt.com/deepfake-cases/
- ディープフェイクとは?危険性や被害事例、見分け方を解説 - LANSCOPE, 9月 28, 2025にアクセス、 https://www.lanscope.jp/blogs/cyber_attack_dt_blog/20250228_25331/
- ディープフェイクとは?サイバー攻撃に使われるセキュリティリスク - NTTドコモビジネス, 9月 28, 2025にアクセス、 https://www.ntt.com/bizon/deepfake.html
- ディープフェイク | セキュリティ用語集 | サイバーセキュリティ - NECソリューションイノベータ, 9月 28, 2025にアクセス、 https://www.nec-solutioninnovators.co.jp/ss/insider/security-words/33.html
- ディープフェイクとは?悪質な手口や危険性、虚偽を見破る3つのポイント - Qbook, 9月 28, 2025にアクセス、 https://www.qbook.jp/column/1873.html
- 偽情報に注意!ディープフェイク|Biz Clip(ビズクリップ)-読む・知る・活かす, 9月 28, 2025にアクセス、 https://business.ntt-west.co.jp/bizclip/articles/bcl00114-091.html
- ディープフェイクとは?脅威と3つの対策を解説 - WOR(L)D ワード, 9月 28, 2025にアクセス、 https://www.dir.co.jp/world/entry/deepfake
- この動画、本物?偽造?米大統領選にしのびよる「ディープフェイク」の脅威とは - YouTube, 9月 28, 2025にアクセス、 https://www.youtube.com/watch?v=_csbGAyL5QE
- 「ディープフェイクの脅威およびeKYCへの攻撃と対策」川名のん 株式会社日立製作所 研究開発グループ【国立情報学研究所オープンハウス】 - YouTube, 9月 28, 2025にアクセス、 https://www.youtube.com/watch?v=UwgIe3z4y4w
- ディープフェイク悪用の犯罪が多発 オンライン面接やリモートが危ない?日本にも警鐘, 9月 28, 2025にアクセス、 https://globe.asahi.com/article/14713060
- AIが作った“偽動画”を見抜くポイントは「まばたき」への着目 たった2年で約10倍に増加した、ディープフェイクの脅威と実態 - logmi Business, 9月 28, 2025にアクセス、 https://logmi.jp/main/technology/328657
- AI によるディープフェイクの詳細なガイド | McAfee Blog, 9月 28, 2025にアクセス、 https://www.mcafee.com/blogs/ja-jp/internet-security/the-ultimate-guide-to-ai-deepfakes/
- ディープフェイク | セキュリティ対策 | セキュリティ&プライバシー | 投資信託のフィデリティ投信, 9月 28, 2025にアクセス、 https://www.fidelity.co.jp/security-and-privacy-new/online-security/deepfakes
- AIの悪意あるディープフェイクを見分ける方法とは? - note, 9月 28, 2025にアクセス、 https://note.com/dx_labo/n/nd97822d62bce
- フェイク画像、見分けるためにどこを見る? 米研究者が「スキルアップサイト」を開発, 9月 28, 2025にアクセス、 https://globe.asahi.com/article/15886926
- ディープフェイクとは?騙されないための見分け方や対策を紹介! - LISKUL, 9月 28, 2025にアクセス、 https://liskul.com/deepfake-167329
- ディープフェイクとは?活用例や悪用された場合のリスク、対策について解説 | セキュリティのSHIFT, 9月 28, 2025にアクセス、 https://service.shiftinc.jp/column/9636/
- 【事例あり】ディープフェイクとは?リスクや4つの対策をわかりやすく解説 - Jitera, 9月 28, 2025にアクセス、 https://jitera.com/ja/insights/44274
- ディープフェイクとは?個人ユーザが気をつけるポイントや悪用 ..., 9月 28, 2025にアクセス、 https://news.trendmicro.com/ja-jp/article-deepfake-overview/
- 第426回 性的ディープフェイク被害と対策 - セコム, 9月 28, 2025にアクセス、 https://www.secom.co.jp/anshinnavi/net_security/backnumber426.html
- ディープフェイク動画の脅威と対策:最新事例とDarktrace活用 - AIセキュリティ, 9月 28, 2025にアクセス、 https://aisecurity.co.jp/article/3216
- 令和6年版 情報通信白書|偽・誤情報の流通・拡散等の課題及び対策 - 総務省, 9月 28, 2025にアクセス、 https://www.soumu.go.jp/johotsusintokei/whitepaper/ja/r06/html/nd141210.html
- イタリア、EU初のAI包括規制法を成立-ディープフェイク悪用に最大5年の禁錮刑 - イノベトピア, 9月 28, 2025にアクセス、 https://innovatopia.jp/tech-social/tech-social-news/66636/
- ディープフェイク検出ツールを無償提供!トレンドマイクロがビデオ通話中の安全確保を支援, 9月 28, 2025にアクセス、 https://jp.investing.com/news/stock-market-news/article-855066