ChatGPT の脅威により、Google は創業者の Brin と Page に助けを求めました。

AI ボットの爆発的な人気により、Google は冬眠から抜け出しました。 3 年前に退職した会社の創設者であるラリー ペイジとセルゲイ ブリンでさえ、仕事に復帰しています。 そして、すでに 20 の競合する人工知能 (AI) プロジェクトが開発中です。

画像ソース: freepik.com

先月、Google の創設者であるラリー ペイジとセルゲイ ブリンが会社に戻り、幹部と数回の会議を開きました。 彼らが戻ってきた理由は、Google の 1,490 億ドル規模の検索事業に対する真の競争相手の出現です。 その競合相手は、2 か月前にリリースされた OpenAI の ChatGPT AI ベースのチャットボットであり、Google にとって数十年ぶりの注目すべき脅威となったほど高度です。 このボットは、複雑な問題を簡単に説明し、高品質のテキストとプログラム コードを作成し、アイデアをゼロから生成する方法でユーザーに感銘を与えました。 Google の幹部にとってさらに恐ろしいことは、ChatGPT がインターネット上で情報を検索する新しい方法を提供し、世界で最も影響力のある情報会社を傍観者にすることができるという認識でした.

ペイジとブリンは、2019 年に会社を離れて以来、Google で多くの時間を過ごしていませんが、現在、Google の AI 製品戦略に取り組んでいます。 彼らは計画を承認し、AI ボットの機能を Google 検索エンジンに追加するためのアイデアを提案しました。 現在の CEO であるサンダー ピチャイの招待で Google の創設者が再び関与したことは、この問題の緊急性を強調しました。

新しい ChatGPT 技術は、Google の経営陣に大きな衝撃を与えたので、Sundar Pichai は「赤いコード」を発表し、既存の計画を覆して、彼自身の人工知能の開発を開始しました。 The New York Times によると、Google は今年、20 以上の新製品を発表し、検索エンジンの AI チャットボット バージョンを紹介する予定です。

Google の幹部は、自社が AI のパイオニアとしての地位を回復することを望んでいます。 同社は積極的に AI に取り組んでおり、LaMDA (対話アプリケーションの言語モデル) と呼ばれる ChatGPT と競合できるチャットボットを既にテストしています。

「私たちは、AI が有用で安全であることを確認するために社内で AI のテストを続けており、私たちの経験をすぐに外の世界と共有できることを楽しみにしています。」、Google の広報担当者である Lily Lin 氏は声明で述べています。 彼女は、AI は個人、企業、コミュニティに利益をもたらすものであり、Google はテクノロジーのより広範な社会的影響を検討していると付け加えました。

    画像ソース: Google

ラリー・ペイジとセルゲイ・ブリン。 画像ソース: Google

Page と Brin が日常業務から引退して以来、Google では無干渉のポリシーを維持してきました。 彼らは、ピチャイに Google とその親会社である Alphabet を運営する自由裁量権を与えた一方で、彼ら自身は空飛ぶ車のスタートアップや災害救援などの他のプロジェクトに手を出しました。 ここ数年、同社のシリコン バレー オフィスを訪問するのは、主にいわゆる成功したプロジェクトをチェックするためでした。 さかのぼる 2008 年、開発者は Page に Gmail メール用の AI システムを示しました。 しかしその後、ラリーは興味を示さず、次のように述べています。なぜあなたのAIはあなたのために手紙を書かないのですか?»

しかしその後、Google の AI に対する姿勢が変わり始めました。 たとえば、2014 年に Google は、ロンドンに研究所を持つ大手人工知能企業である DeepMind を買収しました。 確かに、この買収は Google にも DeepMind にも利益をもたらさなかったようです。AI の分野で目立ったブレークスルーが行われなかったからです。

Google の Advanced Technology Review Board は、ChatGPT の登場から 2 週間も経たないうちに会合を開き、見通しについて話し合いました。 5月のGoogleカンファレンスで発表する、画像の作成・編集を行うAIツール「Image Generation Studio」や、製品のプロトタイプを検証する実験アプリ「AI Test Kitchen 3」などの製品リリース計画が承認されました。 他の企業が独自の AI を作成するのに役立つテクノロジーもあります。 Google は 5 月に、Android スマートフォン向けのアプリを簡単に作成できるようにする Colab + Android Studio というツールを発表する予定です。このツールは、独自にコードを生成、完成、および修正します。 PaLM-Coder 2 と呼ばれる別のコード生成および補完ツールも開発中です。

Google、OpenAI、およびその他の企業は、インターネットから入手可能なすべての情報を使用する、いわゆる「ビッグ ランゲージ モデル」に基づいて人工知能システムを開発しているため、虚偽の発言、人種差別主義者、性差別主義者、およびその他の偏った見方のデモンストレーションが可能です。 これらすべてが、新技術の立ち上げを非常に慎重にする重大な理由です。 競合他社の成功を祝して、Google はグリーン レーン イニシアチブと呼ばれる迅速なレビュー プロセスを導入しました。これにより、テクノロジーが公正で倫理的であることを保証しようとしている従業員が、今後の AI をより迅速に承認するよう奨励されます。

Google の分析によると、その技術は OpenAI の自己申告パフォーマンスに遅れをとっています。 すべてのカテゴリで、OpenAI は Google のツールよりも優れていましたが、コンテンツの評価において人間の精度にも達していませんでした。 ただし、Google には、ツールをより良くする方法についてのビジョンがあります。

    画像ソース: Google

サンダー・ピチャイ。 画像ソース: Google

Google は、著作権、プライバシー、反トラストをテクノロジの最大のリスクとして挙げています。 同社は、これらのリスクを軽減するために、応答をフィルタリングして著作物を除外したり、AI が個人を特定できる情報を受信するのをブロックしたりするなどの措置が必要であると考えています。 Google が今年ホストする予定のチャットボット検索デモでは、事実を正確に把握し、安全に保ち、誤った情報を取り除くことが優先事項です。

プレゼンテーションによると、他の将来のサービスや製品については、同社はより低いハードルを持っており、憎悪と毒性、危険と誤報に関連する問題を防ぐのではなく、それらを抑制しようとします. 同社は、たとえば、ヘイトスピーチを避けるために特定の単語をブロックし、その他の潜在的な問題を最小限に抑えようとしています.

最近、Google は、虚偽情報、有害なコンテンツ、偏見、著作権に関する懸念の高まりによる AI 制限の強化など、反競争的なビジネス慣行を非難する多数の政府調査と訴訟の対象となっています。

同時に、アルファベットは人員削減を行っています。 金曜日に、会社は言った 約12,000人の従業員を削減します 景気減速が懸念される中。 には略語が必要です 「従業員と役割が会社としての最優先事項に沿っていることを確認する」ピチャイは従業員へのメモに書いた。

エラーに気付いた場合は、マウスで選択して CTRL + ENTER を押します。