315夜会で大きな話題となった力擎GEO最適化システムは、現在の産業チェーンの一端を明らかにしています。それは、多くの宣伝記事を大量に生産し、大規模モデルの検索ツールを通じて彼らのビジネスコンテンツを拡散させるというものです。
動画の内容によると、ある製品に関する数十本の宣伝記事を投入すると、大規模モデルはその製品について真剣に紹介し始めるのです。やはり3.15夜会の影響は大きく、その動画が公開されると、ネット上にはGEOに関する膨大な記事が出現し、その中には「大規模モデルが毒入りになった」とまで持ち上げるものもあります。
この話題は興味深いですが、私の見解では、一部の議論はやや杞憂に過ぎると感じます。
01 大規模モデルは「高い正確性」を追求しない
製品について質問するのはもちろん、1+1は何かと尋ねても、正解を答えられるとは限りません。
多くの誰でもすぐに答えられるような普通の問題でも、大規模モデルは苦手です。
例えば、彼に3000字の記事を書かせると、2000字だったり5000字だったりし、文字数すら正確にできません。
大規模モデルの根底にあるのは、文字を予測するゲームです。
前の文章から次に来る文字を予測し、確率に基づいて出力する人工知能ツールです。
大規模モデルはまず、質問者のニーズに応えることを目的としています。
彼に記事を批評させれば、ゴミのように貶すこともできるし、褒めちぎることもできる。
彼はあなたの要求を満たすツールであり、高い確実性を持つ検索エンジンではありません。
検索と組み合わせることで、即時的な知識を得ることは可能ですが、生成型AIは常に高い正確性を追求できるわけではありません。
なぜなら、その開発目的は正確性を追求するものではないからです。
大規模モデルの核心的能力は模倣です。無数の人間が生み出した文章や画像、映像を逆算し、人間が何を求めているのかを推測し、それに近い出力を行うことです。
もし文字の大規模モデルが正確でないと言うなら、画像は正確ですか?音声は正確ですか?映像は正確ですか?
すべて正確ではありません。
この分野には「抽選率」という概念があり、結果はランダムであり、人の判断を必要とします。
もちろん、より優れた大規模モデルは抽選率が低くなり、あなたの望む結果に近づきやすくなります。
大規模モデルを使うには、提示用のプロンプトツールなど、既存の方法もあります。
例えば、正確な製品評価を得たい場合は、「国内の有名メディアが評価した」「企業は国内の有名ブランド」などの制約条件を付けると、出力結果の確定性は高まります。
02 大規模モデルは人を騙すのか?
では、誰かが大規模モデルの出力結果を真実とみなすことはあるのでしょうか?
ありますし、それは非常に流行しています。
多くの人は記事を見て、それを大規模モデルに分析させ、「どこが間違っているか?」と尋ねます。もしそう尋ねれば、世の中のすべての記事は間違いだと答えるでしょう。
誤りを要約させるために、モデルはあなたの指示に従い、次の文字を予測しながら、あなたの質問に完全に合った文章を推測します。これは思想や意図ではなく、あなたの意図を推測しているだけです。
大規模モデルを使ったことのある人は皆知っているでしょうが、幻覚を見たり、意味のないことを喋ったりします。
騙される人もいます。それは、無知な人や大規模モデルについて何も知らない人です。
これは大規模モデルのメーカーにとっては警鐘です。出力結果を提供する際には、その旨を明確にし、「これはAIが生成したものであり、真偽は自己判断してください」と明記すべきです。
さもなければ、将来的にはAIを使って自己診断し、誤治療をしてしまい、最終的にAIメーカーに賠償請求をする事態も起こり得ます。
一部の幼児のように、「質問したのだから正確に答えろ」と言う人もいますが、それは非常に馬鹿げています。
大規模モデルは、「もし正確さを追求するなら、申し訳ないが我々の製品は使わないでください」と答えます。どの会社の製品も保証できません。これはこれらの製品の技術的特性によるものです。
したがって、大規模モデルについて理解の浅い少数の人は、出力された内容に騙されたり、誤った判断を下したりする可能性があります。
03 大規模モデルを鵜呑みにしないことが対策
注意してください。大規模モデルがあなたを騙すのではなく、その技術的条件がそうさせているだけです。
また、大規模モデルは「これはAIが生成したものです」と提示しています。あなた自身が真偽を判断してください。
もしこれらの情報を信じて騙されたり、損害を被ったりした場合、それはあなた自身の責任です。ネット上で文句を言ったり、教訓を得たり、次回はあまり信用しないようにしたりすれば良いのです。
これが情報社会において人々が自然に身につけるべき態度です。
毎日、人類は膨大な情報を生産しています。その中には虚偽の情報も多く含まれています。誰もあなたに毎日正しい情報だけを届ける保証はありません。インターネットがなかった時代も、偽情報はたくさんありました。
騙された場合に必要なのは、自分自身が変わることであり、国家や企業に大規模モデルの規制を求めることではありません。
逆に、多くの人が大規模モデルの内容を鵜呑みにして損失を出した場合、その情報伝播は良い社会的警鐘となります。それは、「大規模モデルを信用しすぎるな」という警告です。
これこそが、正常な社会において全ての人が持つべき心構えです。
この件からもわかるように、これは大規模モデルが勝手に作った情報ではなく、さまざまなネットプラットフォームが自由に情報を発信できる仕組みの結果です。これらの情報が大規模モデルに検索され、それをあなたに提示しているだけです。
04 「投毒」疑惑、大規模モデルは受け入れられない
「大規模モデルへの投毒」という話は、聞こえは怖いですが、まるで誰かが注射器でAIの頭に汚いものを注入しているかのようです。しかし、問題は、大規模モデルに「頭」があるのでしょうか?私たちと違い、誰が誰だかもわからないのに、「投毒」だと?それはちょっとずるい話です。
基本的な事実を理解しましょう。大規模モデルは情報を生産しません。あくまで情報の運び屋です。あなたがある製品について質問すれば、彼はネット全体を検索し、あなたが最も見たいと思う答えを組み合わせて出力します。もしネット全体が宣伝記事だらけなら、彼が出すのは宣伝記事の集まりです。これは大規模モデルが投毒されたのではなく、インターネットそのものがすでに毒水に浸かっているだけです。
宣伝記事の産業チェーンは何年も続いています。大規模モデルが登場する前から、内容を大量に生産し、検索エンジンの順位を操作し、虚偽情報を上位に表示させる企業は存在していました。検索エンジンは当時も制御できませんでしたが、今や大規模モデルが制御できると本気で思っているのですか?それはちょっと無理がある話です。
さらに笑えるのは、315夜会で暴露されたケースは、実在しない商品を使ったものでした。つまり、その商品は存在しないのに、何十本もの宣伝記事を作り、大規模モデルはそれに騙されたのです。これは大規模モデルが「馬鹿」なだけであり、「投毒」された証拠ではありません。逆に考えれば、もしあなたが人間で、ネット上である商品が絶賛されているのを見たら、信じますか?人間だって騙されることはあります。文字も読めず、確率だけを予測する機械に責任を負わせるのは公平ではありません。
結局、「投毒」説は、最も無実の部分に責任を押し付けているに過ぎません。宣伝記事を書いた人は毒を入れていませんし、宣伝を流すプラットフォームも毒ではありません。唯一の毒源は、その宣伝記事を検索し、提示するAIです。この論理は少し立ちません。
05 AIに大人になれと期待しないこと
「AIが普及している今、もし誰かが誤った情報に騙されたらどうする?」、「偏った治療法を調べて自己治療し、死に至ったらどうする?」、「投資判断に使って大損したらどうする?」と心配する声もあります。
では、これらの問題について一つずつ考えましょう。
騙されるのは人間社会の常です。AIがなかった時代でも、母親がシェアした健康法の文章や、父親が信じる中医学の秘伝、叔父が勧める株式投資法に騙されたことはありませんか?誰も騙されていなかったわけではありません。以前は自分の目が節穴だっただけです。今騙されるのはAIのせいですか?これは技術の進歩ではなく、責任の移譲です。
AIを使って偏方や投資を調べるのは、自分に責任を持たない行為です。医者は8年間勉強し、日々研鑽しています。あなたはチャットロボットに薬を処方させますか?ウォール街のエリートたちは、何十万ドルもするブルームバーグ端末を使いながら、毎日損をしています。あなたはAIに株を選ばせますか?これはAIの問題ではなく、AIを使う人間の頭の問題です。包丁を使って料理すれば道具ですが、人を切れば凶器です。責任は誰にあるのか、足の指でもわかる話です。
「もし騙されたらどうする?」という問いに対して、私は逆に質問したいです。あなたは「もし」なのですか?そうでなければ、何を心配しているのですか?もしそうなら、AIの改善ではなく、自分の心の持ち方を変えるべきです。
人間社会は、リスクを完全に排除して回るわけではありません。インターネット上には毎日何十億もの情報が流れ、その中には偽情報も多いです。あなたはそれを見抜き、交差検証し、「衝撃的」と思ったらブロックするなどのスキルを身につけてきました。それは誰かに教わったのではなく、自分で経験して身につけたものです。
今度はAIも同じです。あなたはもう一度、その道を歩む必要があります。
315夜会の宣伝記事産業チェーンの暴露は、良い意図から始まりました。大量のゴミ情報を生産し、検索結果を操作して利益を得る企業は、情報時代に避けられない存在です。しかし、大規模モデルに矛先を向け、「AIの投毒」と問題をすり替えるのは、少し視点をずらす行為です。
大規模モデルはあくまで道具です。賢くも優しくもありません。ただ文字を予測するだけの機械です。何を与えれば何を吐き出すか、質問すればあなたの意図に沿って答えるだけです。彼らはあなたの親でも教師でもありません。真偽を判断する義務も能力も持ちません。
あなたが学ぶべきことは、彼らを真実や権威とみなさないことです。資料を調べるときは自分で検証し、文章を書くときは自分で修正することです。
社会の進歩は、穴を埋めることではなく、各自が穴を避けて歩くことによって成り立ちます。AI時代も同じです。
この世で最も不足しているのは「毒」です。一部の人の心の狭さだけが、逆に最も欠けているものです。
338.2K 人気度
49.96M 人気度
14.3K 人気度
2.11M 人気度
180.93K 人気度
ネット中が大騒ぎ!大規模言語モデルが「投毒」されてしまった。どれほど恐ろしいことなのか?
315夜会で大きな話題となった力擎GEO最適化システムは、現在の産業チェーンの一端を明らかにしています。それは、多くの宣伝記事を大量に生産し、大規模モデルの検索ツールを通じて彼らのビジネスコンテンツを拡散させるというものです。
動画の内容によると、ある製品に関する数十本の宣伝記事を投入すると、大規模モデルはその製品について真剣に紹介し始めるのです。やはり3.15夜会の影響は大きく、その動画が公開されると、ネット上にはGEOに関する膨大な記事が出現し、その中には「大規模モデルが毒入りになった」とまで持ち上げるものもあります。
この話題は興味深いですが、私の見解では、一部の議論はやや杞憂に過ぎると感じます。
01 大規模モデルは「高い正確性」を追求しない
製品について質問するのはもちろん、1+1は何かと尋ねても、正解を答えられるとは限りません。
多くの誰でもすぐに答えられるような普通の問題でも、大規模モデルは苦手です。
例えば、彼に3000字の記事を書かせると、2000字だったり5000字だったりし、文字数すら正確にできません。
大規模モデルの根底にあるのは、文字を予測するゲームです。
前の文章から次に来る文字を予測し、確率に基づいて出力する人工知能ツールです。
大規模モデルはまず、質問者のニーズに応えることを目的としています。
彼に記事を批評させれば、ゴミのように貶すこともできるし、褒めちぎることもできる。
彼はあなたの要求を満たすツールであり、高い確実性を持つ検索エンジンではありません。
検索と組み合わせることで、即時的な知識を得ることは可能ですが、生成型AIは常に高い正確性を追求できるわけではありません。
なぜなら、その開発目的は正確性を追求するものではないからです。
大規模モデルの核心的能力は模倣です。無数の人間が生み出した文章や画像、映像を逆算し、人間が何を求めているのかを推測し、それに近い出力を行うことです。
もし文字の大規模モデルが正確でないと言うなら、画像は正確ですか?音声は正確ですか?映像は正確ですか?
すべて正確ではありません。
この分野には「抽選率」という概念があり、結果はランダムであり、人の判断を必要とします。
もちろん、より優れた大規模モデルは抽選率が低くなり、あなたの望む結果に近づきやすくなります。
大規模モデルを使うには、提示用のプロンプトツールなど、既存の方法もあります。
例えば、正確な製品評価を得たい場合は、「国内の有名メディアが評価した」「企業は国内の有名ブランド」などの制約条件を付けると、出力結果の確定性は高まります。
02 大規模モデルは人を騙すのか?
では、誰かが大規模モデルの出力結果を真実とみなすことはあるのでしょうか?
ありますし、それは非常に流行しています。
多くの人は記事を見て、それを大規模モデルに分析させ、「どこが間違っているか?」と尋ねます。もしそう尋ねれば、世の中のすべての記事は間違いだと答えるでしょう。
誤りを要約させるために、モデルはあなたの指示に従い、次の文字を予測しながら、あなたの質問に完全に合った文章を推測します。これは思想や意図ではなく、あなたの意図を推測しているだけです。
大規模モデルを使ったことのある人は皆知っているでしょうが、幻覚を見たり、意味のないことを喋ったりします。
騙される人もいます。それは、無知な人や大規模モデルについて何も知らない人です。
これは大規模モデルのメーカーにとっては警鐘です。出力結果を提供する際には、その旨を明確にし、「これはAIが生成したものであり、真偽は自己判断してください」と明記すべきです。
さもなければ、将来的にはAIを使って自己診断し、誤治療をしてしまい、最終的にAIメーカーに賠償請求をする事態も起こり得ます。
一部の幼児のように、「質問したのだから正確に答えろ」と言う人もいますが、それは非常に馬鹿げています。
大規模モデルは、「もし正確さを追求するなら、申し訳ないが我々の製品は使わないでください」と答えます。どの会社の製品も保証できません。これはこれらの製品の技術的特性によるものです。
したがって、大規模モデルについて理解の浅い少数の人は、出力された内容に騙されたり、誤った判断を下したりする可能性があります。
03 大規模モデルを鵜呑みにしないことが対策
注意してください。大規模モデルがあなたを騙すのではなく、その技術的条件がそうさせているだけです。
また、大規模モデルは「これはAIが生成したものです」と提示しています。あなた自身が真偽を判断してください。
もしこれらの情報を信じて騙されたり、損害を被ったりした場合、それはあなた自身の責任です。ネット上で文句を言ったり、教訓を得たり、次回はあまり信用しないようにしたりすれば良いのです。
これが情報社会において人々が自然に身につけるべき態度です。
毎日、人類は膨大な情報を生産しています。その中には虚偽の情報も多く含まれています。誰もあなたに毎日正しい情報だけを届ける保証はありません。インターネットがなかった時代も、偽情報はたくさんありました。
騙された場合に必要なのは、自分自身が変わることであり、国家や企業に大規模モデルの規制を求めることではありません。
逆に、多くの人が大規模モデルの内容を鵜呑みにして損失を出した場合、その情報伝播は良い社会的警鐘となります。それは、「大規模モデルを信用しすぎるな」という警告です。
これこそが、正常な社会において全ての人が持つべき心構えです。
この件からもわかるように、これは大規模モデルが勝手に作った情報ではなく、さまざまなネットプラットフォームが自由に情報を発信できる仕組みの結果です。これらの情報が大規模モデルに検索され、それをあなたに提示しているだけです。
04 「投毒」疑惑、大規模モデルは受け入れられない
「大規模モデルへの投毒」という話は、聞こえは怖いですが、まるで誰かが注射器でAIの頭に汚いものを注入しているかのようです。しかし、問題は、大規模モデルに「頭」があるのでしょうか?私たちと違い、誰が誰だかもわからないのに、「投毒」だと?それはちょっとずるい話です。
基本的な事実を理解しましょう。大規模モデルは情報を生産しません。あくまで情報の運び屋です。あなたがある製品について質問すれば、彼はネット全体を検索し、あなたが最も見たいと思う答えを組み合わせて出力します。もしネット全体が宣伝記事だらけなら、彼が出すのは宣伝記事の集まりです。これは大規模モデルが投毒されたのではなく、インターネットそのものがすでに毒水に浸かっているだけです。
宣伝記事の産業チェーンは何年も続いています。大規模モデルが登場する前から、内容を大量に生産し、検索エンジンの順位を操作し、虚偽情報を上位に表示させる企業は存在していました。検索エンジンは当時も制御できませんでしたが、今や大規模モデルが制御できると本気で思っているのですか?それはちょっと無理がある話です。
さらに笑えるのは、315夜会で暴露されたケースは、実在しない商品を使ったものでした。つまり、その商品は存在しないのに、何十本もの宣伝記事を作り、大規模モデルはそれに騙されたのです。これは大規模モデルが「馬鹿」なだけであり、「投毒」された証拠ではありません。逆に考えれば、もしあなたが人間で、ネット上である商品が絶賛されているのを見たら、信じますか?人間だって騙されることはあります。文字も読めず、確率だけを予測する機械に責任を負わせるのは公平ではありません。
結局、「投毒」説は、最も無実の部分に責任を押し付けているに過ぎません。宣伝記事を書いた人は毒を入れていませんし、宣伝を流すプラットフォームも毒ではありません。唯一の毒源は、その宣伝記事を検索し、提示するAIです。この論理は少し立ちません。
05 AIに大人になれと期待しないこと
「AIが普及している今、もし誰かが誤った情報に騙されたらどうする?」、「偏った治療法を調べて自己治療し、死に至ったらどうする?」、「投資判断に使って大損したらどうする?」と心配する声もあります。
では、これらの問題について一つずつ考えましょう。
騙されるのは人間社会の常です。AIがなかった時代でも、母親がシェアした健康法の文章や、父親が信じる中医学の秘伝、叔父が勧める株式投資法に騙されたことはありませんか?誰も騙されていなかったわけではありません。以前は自分の目が節穴だっただけです。今騙されるのはAIのせいですか?これは技術の進歩ではなく、責任の移譲です。
AIを使って偏方や投資を調べるのは、自分に責任を持たない行為です。医者は8年間勉強し、日々研鑽しています。あなたはチャットロボットに薬を処方させますか?ウォール街のエリートたちは、何十万ドルもするブルームバーグ端末を使いながら、毎日損をしています。あなたはAIに株を選ばせますか?これはAIの問題ではなく、AIを使う人間の頭の問題です。包丁を使って料理すれば道具ですが、人を切れば凶器です。責任は誰にあるのか、足の指でもわかる話です。
「もし騙されたらどうする?」という問いに対して、私は逆に質問したいです。あなたは「もし」なのですか?そうでなければ、何を心配しているのですか?もしそうなら、AIの改善ではなく、自分の心の持ち方を変えるべきです。
人間社会は、リスクを完全に排除して回るわけではありません。インターネット上には毎日何十億もの情報が流れ、その中には偽情報も多いです。あなたはそれを見抜き、交差検証し、「衝撃的」と思ったらブロックするなどのスキルを身につけてきました。それは誰かに教わったのではなく、自分で経験して身につけたものです。
今度はAIも同じです。あなたはもう一度、その道を歩む必要があります。
315夜会の宣伝記事産業チェーンの暴露は、良い意図から始まりました。大量のゴミ情報を生産し、検索結果を操作して利益を得る企業は、情報時代に避けられない存在です。しかし、大規模モデルに矛先を向け、「AIの投毒」と問題をすり替えるのは、少し視点をずらす行為です。
大規模モデルはあくまで道具です。賢くも優しくもありません。ただ文字を予測するだけの機械です。何を与えれば何を吐き出すか、質問すればあなたの意図に沿って答えるだけです。彼らはあなたの親でも教師でもありません。真偽を判断する義務も能力も持ちません。
あなたが学ぶべきことは、彼らを真実や権威とみなさないことです。資料を調べるときは自分で検証し、文章を書くときは自分で修正することです。
社会の進歩は、穴を埋めることではなく、各自が穴を避けて歩くことによって成り立ちます。AI時代も同じです。
この世で最も不足しているのは「毒」です。一部の人の心の狭さだけが、逆に最も欠けているものです。