すごく重要なことなのに世論をみても誰も気にしていないのはなんとも・・・
2025年4月に施行された情報流通プラットフォーム対処法(通称:大規模プラットフォーム法)は、SNS上の誹謗中傷問題に対処するための新たな法的枠組みを提供している。しかし、この法律が定める誹謗中傷の判断基準や判断主体をめぐって、表現の自由との兼ね合いや言論統制への懸念が議論されている614。本記事では、同法の判断基準と運用体制について詳しく解説し、諸外国の類似制度との比較を通じて、その特徴と課題を明らかにする。
情報流通プラットフォーム対処法の概要と背景
法律制定の背景
情報流通プラットフォーム対処法は、従来のプロバイダ責任制限法を改正して成立した法律である16。総務省の違法・有害情報相談センターに寄せられた相談件数は、2013年度の2,927件から2023年度の6,463件まで増加しており、インターネット上の誹謗中傷が深刻な社会問題となっていることが背景にある6。
法律の基本的な枠組み
同法は、大規模プラットフォーム事業者に対して以下の措置を義務付けている14:
-
対応の迅速化:削除申出窓口・手続の整備・公表、削除申出への対応体制の整備、削除申出に対する判断・通知(原則7日以内)
-
運用状況の透明化:削除基準の策定・公表、削除した場合の発信者への通知
重要なのは、政府が表現内容に直接介入するのではなく、事業者に手続き的義務を課すことで、間接的に誹謗中傷を抑制しようとする仕組みである点である14。

誹謗中傷の判断基準と判断主体
判断基準の策定
大規模プラットフォーム事業者は、「送信防止措置の実施に関する基準」を策定し、公表することが義務付けられている116。この基準は事業者が自ら定めるものであり、政府が具体的な判断基準を強制するものではない。
誹謗中傷ホットライン運用ガイドラインでは、特定誹謗中傷情報の判断基準として以下が示されている7:
-
個人が特定可能であること
-
公共性がないことが明らかである又は公益目的の表現でないことが明らかであること
-
特定個人の社会的評価が低下させられるものであること、または社会生活上許される限度を超えた侮辱的表現を内容とすること
判断主体と手続き
削除するかどうかの判断はあくまで事業者に委ねられている14。大規模プラットフォーム事業者には、侵害情報調査専門員の選任・届出が義務付けられており、十分な知識経験を有する者による調査が求められている12。
被侵害者から削除請求の申し出を受けた場合、事業者は遅滞なく調査を行い、申出日より14日以内(通常は7日以内)に削除するかどうかの決定を申出者に通知しなければならない216。
公人への批判と中傷の区別問題
表現の自由との兼ね合い
政治家などの公人に対する正当な批判と中傷の区別は、表現の自由を保障する上で極めて重要な問題である。誹謗中傷ホットライン運用ガイドラインでは、「公共性がないことが明らかである又は公益目的の表現でないことが明らかであること」を要件の一つとしているが7、この判断は容易ではない。
恣意的運用への懸念
情報流通プラットフォーム対処法の施行に際して、SNS上では「情報統制法」「政府による言論弾圧」といった批判的な書き込みが相次いだ14。表現行為に絡む規制の強化は、憲法が保障する表現の自由に抵触する危険をはらんでいるためである。
法律は表現の自由への配慮から、対象となるサービスを平均月間発信者数が1,000万人以上または平均月間投稿数が200万件以上の極めて大規模なものに絞り込んでいる1416。また、規制するサービスの性質についても、不特定のユーザー同士の交流を主目的とするものに省令で限定している。
諸外国の規制との比較
ドイツ:ネットワーク執行法(NetzDG)
ドイツは2018年にネットワーク執行法(NetzDG)を施行し、大規模プラットフォームに「明らかに違法」と思われるコンテンツを警告から24時間以内に削除することを義務付けている812。しかし、国際人権規約委員会は、この規制がソーシャルメディア企業を政府による検閲に加担させ、適法な言論まで検閲してしまう恐れがあるとして批判している12。
2021年には法律が改正され、透明性レポートの情報内容と比較可能性の向上、苦情報告チャネルのユーザーフレンドリー性の改善、異議申立て手続きの導入などが図られた18。
EU:デジタルサービス法(DSA)
EUのデジタルサービス法は2024年2月17日から全面施行されており、違法コンテンツへの対処を主眼としている919。「オフラインで違法なものはオンラインでも違法」との原則に基づき、ヘイトスピーチやテロの扇動といった違法コンテンツの削除を企業に義務付けている。
DSAは段階的な義務を規定しており、EU域内のユーザー月間平均4,500万人以上にリーチする「巨大オンラインプラットフォーム」には、より厳格なルールが適用される19。違反企業には世界中のマーケットにおける年間売上高の6%もの制裁金が科される可能性がある9。
イギリス:オンライン安全法
イギリスでは2023年10月にオンライン安全法が可決され、2025年3月16日を期限として、プロバイダーは自社サービスがもたらす可能性のある被害を評価する義務を負うこととなった10。この法律は、過度な検閲を要求し、小規模なサイト運営者に過重な負担を課すものとして批判を集めている。
アメリカ:通信品位法230条
アメリカの通信品位法230条は、プロバイダ免責を定めた法律として、プラットフォーマーがユーザーの不適切な投稿を放置しても免責される法的根拠となっている11。これは「インターネットを生み出した26ワード」と呼ばれ、オンラインプラットフォームの発展を支える基盤となってきた。
しかし、2010年代以降、表現の自由を重視する一方で憎悪表現が蔓延する問題も指摘されている11。
日本の制度の特徴と課題
制度設計の特徴
日本の情報流通プラットフォーム対処法は、諸外国と比較して以下の特徴がある:
-
政府の直接介入回避:削除判断は事業者に委ね、政府は手続き的義務のみを課す
-
対象の限定:極めて大規模なプラットフォームのみを対象とし、表現の自由への配慮を示す
-
透明性の重視:削除基準の公表や運用状況の公表を義務付け
今後の課題
一方で、以下の課題も指摘されている:
-
判断基準の曖昧性:公益性や公共性の判断が困難
-
事業者への負担:専門員の選任や調査体制の整備に要するコスト
-
実効性の確保:自主的な対応に依存する仕組みの限界
まとめ
情報流通プラットフォーム対処法は、表現の自由と誹謗中傷対策のバランスを取ろうとする試みであるが、その実効性と適切な運用が今後の課題となる。諸外国の経験を踏まえ、過度な検閲に陥ることなく、真に被害者救済に資する制度として機能させるためには、継続的な見直しと改善が必要である26。
特に、公人への批判と中傷の区別については、民主主義社会における言論の自由を守るため、慎重な運用が求められる。事業者、政府、市民社会が連携し、適切なガバナンス体制を構築していくことが重要である。