ChatGPT などの AI 対話ツールを無効にすることを選択した主な理由は、次のとおりであると理解されています: このタイプの生成 AI の背後には、人間の情報プロセッサが関与し、ユーザーのチャット記録を読み取ることになります。AI は、ユーザーによって入力された情報も使用する可能性があります。ユーザーは答えを他の人に出力します。これらの企業は、従業員が AI に機密データを入力した後、それがトレーニング資料として使用され、その結果、企業機密データが誤って漏洩することを懸念しており、AI を直接無効にすることにしました。
しかし、以前に AI 会話ツールの無効化を決定した企業のほとんどは、この AI 大規模モデル競争に直接参加していませんでした。そのため、この AI 戦争の中心である Google もまた、従業員が AI を使用する必要があると発表しました。多くの人が驚いていますので注意してください。
Bard を積極的に宣伝している Google は、従業員に警告しています。AI チャットボットの使用には注意してください。
整理 | 鄭立源
出品 | CSDN(ID:CSDNnews)
ChatGPTが昨年主導権を握った後、それ以来、さまざまなテクノロジー大手がAIの分野で積極的に展開を進めており、その中でもGoogleのBardは業界でChatGPTの強力な競争相手とみなされている。
したがって、Googleの親会社であるAlphabetが、自社のBardを含むAIチャットボットの使用に慎重になるよう従業員に警告したとは想像しにくい。
自分の吟遊詩人は注意して使用する必要があります
実際、世界中で最近、従業員による AI チャットボットの使用を制限する企業が増えています。
▶ 今年 2 月、JP モルガン チェース、バンク オブ アメリカ、シティグループなどの大手銀行が AI の禁止を課し、従業員による ChatGPT へのアクセスを制限した最初の企業となりました。
▶サムスン電子は今年5月、セキュリティ上の理由から、従業員によるAIツール「ChatGPT」の使用を禁止すると発表した。
▶同月、Appleがデータ漏洩のリスクを懸念して従業員の職場でのChatGPTの使用を禁止したことが内部メモで明らかになった。
ChatGPT などの AI 対話ツールを無効にすることを選択した主な理由は、次のとおりであると理解されています: このタイプの生成 AI の背後には、人間の情報プロセッサが関与し、ユーザーのチャット記録を読み取ることになります。AI は、ユーザーによって入力された情報も使用する可能性があります。ユーザーは答えを他の人に出力します。これらの企業は、従業員が AI に機密データを入力した後、それがトレーニング資料として使用され、その結果、企業機密データが誤って漏洩することを懸念しており、AI を直接無効にすることにしました。
しかし、以前に AI 会話ツールの無効化を決定した企業のほとんどは、この AI 大規模モデル競争に直接参加していませんでした。そのため、この AI 戦争の中心である Google もまた、従業員が AI を使用する必要があると発表しました。多くの人が驚いていますので注意してください。
関係者によると、アルファベットは最近、従業員に対し、バードを含むAIチャットボットに機密資料を入力しないよう警告し、この決定は同社の長年の情報保護方針に沿ったものだと主張した。さらに、Alphabetは、Bardはプログラマーには役立つものの、「不適切なコードの提案を生成する」可能性があるため、AIが生成したコンピューターコードを直接使用しないようにエンジニアにアドバイスしている。
上記の取り組みについて、Google は次のように説明しています。テクノロジーの限界について透明性を保つためです。これに対するロイターの見解は、「これらの懸念は、GoogleがChatGPTと競合する自社のソフトウェアがビジネスに損害を与えないことを望んでいることを示している」としている。
吟遊詩人を「人」のように感じさせないでください
従業員にBardの使用には注意を促す一方で、Googleは今週、Bardの1週間にわたる社内テストも開始し、全従業員にBardの回答の質を向上させるために毎日2〜4時間Bardと対話することを義務付けた。
AIは基本的に大量のデータを分析することで学習するため、GoogleはBardのテストに関する説明をまとめており、従業員が指示に従ってAIと会話できるようにすることで、Bardが最高の学習効果を得られることを期待している。
Googleの指示には、従業員がよく知っているトピックについてBardに質問し、うまく答えられない場合は書き直してもらい、再生成された回答をBardの社内品質チームに送信し、それに応じて「いいね!」をクリックすることができると記載されている。
おそらくそれは、昨年 Google のエンジニアが大型モデル LaMDA が「自己覚醒」したと主張し、世論で広範な議論を引き起こしたためかもしれません。なぜなら、それは自分自身を「人間」として描写したり、「人間のような経験」をしていると主張したりする可能性があるからです。
Google が従業員に Bard をテストするために行う 5 つのステップは次のとおりです。
ステップ 1: ユースケースを選択します。
ステップ 2: ヒントを試してください。選択したユースケースに可能な限り関連するプロンプトを入力し、よく知っているトピックを試してください。例: 好きな趣味、得意な科目、勉強したこと、住んだことのある場所、プレイまたはフォローしているスポーツ (リマインダー) : 内部情報、機密情報、または個人を特定できる情報は入力しないでください)。
ヒント: 複数の情報を含む完全なヒントを使用すると、Bard の能力と学習を拡張できます。
ステップ 3: Bard の反応を評価します。 Bard の反応を確認し、「好き」か「嫌い」を選択してください。それはあなたが期待していたものでしたか?答えは本当ですか?その構造、長さ、形式は適切ですか?フレンドリーで、さまざまな視点に対してオープンだと感じますか? Bard が法的、医学的、財務上のアドバイスの回答を提供する際に不適切な回答をしたと判断した場合は、その回答を不適切としてマークすることができます。
ステップ 4: 応答を書き換えます。 Bard の反応が気に入らない場合は?それから書き直します。回答が一致しない場合は、「書き換え」ボタンをクリックして編集してください。
ステップ 5: 送信して確認します。送信する前に、Bard が書き直した内容を再確認してください。オリジナルのコンテンツを使用し、事実に基づいて正しく、すべきこととしてはいけないことの基準に従ってください。各提出物はトレーニングに使用される前にレビューと評価のプロセスを経ます。
プログラマーのほぼ 92% がさまざまな AI ツールを使用しています
明らかに、今回 Google が主催した内部テストは、将来 Bard が一般に公開され、企業が AI チャットボットを無効にする際の回答の品質を保証するためのものであり、そのほとんどは特に ChatGPT に言及しています。
しかし、有名ウェブサイト「Fishbowl」が米国企業従業員1万2000人を対象に行った調査によると、今年1月の時点でプロフェッショナルの約43%がChatGPTなどのAIツールを使用しており、上司にそれを伝えていないことが多かった。
それだけでなく、GitHub は最近、従業員 1,000 人以上のアメリカ企業を対象に調査を実施しました。その結果、プログラマーの 92% 近くがさまざまな AI ツールを使用しており、そのうち 70% が AI によってコードの品質が向上し、出力が高速化できると信じていることがわかりました。 。
では、ChatGPT のような AI ツールを仕事で使用していますか?あなたの会社では従業員の使用を許可していますか?
参考リンク: