特集
FEATURE
ビジネス
BUSINESS
ラーニング
LEARNING
エンジニアリング
ENGINEERING
学術&研究
ACADEMICS & STUDY
公共
PUBLIC
エンタメ&アート
ENTERTAINMENT & ART
1~13 / 2766件
英語版Wikipediaで、ChatGPTなどの大規模言語モデル(LLM)を使って記事本文を生成したり書き換えたりすることを原則禁じる[ガイドライン]{target=“_blank”}Request for Comment、RfC)で支持多数により採択され、記事本文の生成用途は認めない方針が明文化された。 ## 英語版Wikipediaで「LLMによる記事生成禁止」を明文化 英語版Wikipediaでは、新しいガイドライン「Writing articles with large language models」を公開し、LLMを使って記事本文を生成することを原則禁止した。 ガイドラインの要旨では、次の方針が明確に示されている。 - LLMを使って記事本文を生成することは禁止 - LLMによる記事本文の書き換えも禁止 理由として、幻覚(hallucination)、架空の出典、検証不能な内容などのリスクが挙げられている。 Wikipediaは百科事典としての信頼性を維持するため、出典確認を含めた編集プロセスを人間の編集者が担うことを重視している。生成AIが作成した文章をそのまま記事内容として使用することは、この編集原則と相容れないとされる。 ## 2026年3月のコミュニティ投票で採択 この方針は、英語版Wikipediaのコミュニティで実施されたRfCによって議論された。 RfCの結果は - 賛成:44 - 反対:2 となり、ガイドラインの改定は圧倒的多数の支持で採択された。議論の総括では、LLMの利用を全面禁止するのではなく、問題となりやすい記事生成用途を抑制しつつ、適切な利用範囲を明確化する必要があると結論付けられている。 ## 例外として認められる利用 一方で、LLMの利用が全面的に禁止されたわけではない。ガイドラインでは主に次の用途が例外として認められている。 - コピーエディットの補助 - 文法修正や文章の改善提案など - 翻訳補助 - 他言語版Wikipediaの記事を翻訳する場合(ただし最終的な内容確認は人間の編集者が行う必要がある) つまり、LLMは編集補助ツールとしての利用は可能だが、記事内容そのものの生成には使えないという位置づけになる。 ## LLM利用拡大を受けたルール整備 近年、ChatGPTなどの生成AIを使った文章生成が急速に普及している。WikipediaでもAIを使った編集が増えており、誤情報や架空の出典が含まれるケースが問題視されてきた。 今回のガイドラインは、こうした状況を受けてLLM利用の許容範囲を明確化する目的で整備されたものだ。生成AIを完全に排除するのではなく、百科事典の信頼性を維持するための編集ルールを明確にする狙いがある。 英語版Wikipediaでは今後、LLMを補助ツールとして活用しつつも、記事本文の作成については人間の編集者が主体となる編集体制を維持する方針となる。 :::box [関連記事:Wikipedia、お前もか――AI生成記事が直面する課題 プリンストン大学の研究チームによる調査] ::: :::box [関連記事:AI研究の主要国際会議「NeurIPS 2025」採択論文でハルシネーション多数──GPTZero、「vibe citing(雰囲気引用)」を中心概念として定義し分析を公開] ::: :::box [関連記事:デロイトの報告書に生成AIのハルシネーションで存在しない文献を引用・参照、豪政府に代金を一部返金──脚注誤りを訂正し再公開、コンサル業界に波紋] ::: :::box [関連記事:AIが生成した「架空の判例」を使用した弁護士に1万5,000ドルの制裁金ーー「AIの使用には“実際の知性”が必要」米インディアナ州連邦地裁] ::: :::box [関連記事:イーロン・マスク、xAIで“Grokipedia”構築中 『Wikipediaを大幅に上回る』と表明] :::
Ledge.aiにソリューション情報を掲載しませんか?
使い方や具体的な目標などを詳しくご説明します
お問い合わせ