チャットGPTのオープンAI、信頼・安全担当責任者が退社へ

 

投稿者:グッビオのオオカミさん

  

 

【チャットGPTのオープンAI、信頼・安全担当責任者が退社へ | ロイター】

https://jp.reuters.com/article/openai-trustandsafety-idJPKBN2Z10JZ

 

私もSNS音痴でいまいち理解が浅いまま投稿しますが、

チャットGPTを開発したアメリカの新興企業オープンAIの信頼・安全担当責任者、デーブ・ウェルナー氏は21日退社する事が明らかになりました。

 

信頼・安全担当責任者の仕事の重圧で家庭生活に悪影響が出たためと、SNSへの投稿で明らかにしました。

 

…まあ、考えたら、私もTwitterやyoutube等で本当にヘイトスピーチに当たる悪質なものや、他人に危害を加えかねないものは「通報」した事がありましたからね。

 

そういう事の担当者が責任が重く、仕事量が多くなるのはうなづけます。

 

SNSと言っても、コミュニケーションの微妙な文脈やニュアンスに関しては、人間の作業や判断の部分が残るのでしょうかね?

 

みんなが便利便利と自由に投稿し、使う裏では人工知能(という商品では無く)、担当者が苦労してるのかも知れませんね。

 

その部分をAIにやらすと、またそのチェックを人間が…で、堂々巡りになる様な気もしますが。

 

 

(ねこだるまのコメント)  

 

チャットGPTを作っている会社の、信頼・安全担当責任者が退社した、という意味ですね。

チャットGPTの信頼、安全担当部門という意味ではない。

 

安全担当部門とは要するにセキュリティ担当という意味だと思いますが、「信頼」担当とはすなわちメーカー自体の名誉も背負っているでしょうから、プレッシャー、ストレスは相当なものである、と想像できますね。

プログラムは完璧に動作して当たり前、というのが建前ですし、消費者意識が肥大していますから、クレーマーも多いでしょうしね。

 

局所的な「便利」を求めて膨大な開発コストをかける。

「作ってしまえば長く使える」

という考えですが、作ったアプリなんてすぐ時代遅れとなります。

 

またユーザーの方でも操作方法だけでなく、新しい「概念」を勉強することを余儀なくされます。

その分、「常識」を勉強する時間が減っているでしょうね。

 

未来の人間はシステムに対応すること、メンテに追われて意味や価値を考える時間がなくなっているかも知れません。(1億総ホリエモン)


↓(スポンサーリンク)↓



コメント: 3
  • #3

    リカオン (金曜日, 28 7月 2023 17:56)

    読売の記事によるとEUではAIの規制法案を審議しており、チャットGPTがそれに対応できるか検討しているようだ。もしもEUの規制法案に対応できなければEUへの導入は諦めるような発言。
    ↓↓
    https://www.yomiuri.co.jp/economy/20230525-OYT1T50143/

    今回のデーブ・ウェルナー氏の退社はその続報にあたるのかな?EUの規制法案に合わせてヘイトスピーチや有害コンテンツに対応できるようにしたが、とてつもなく大変で投げ出したという事かなと。

    繰り返しになるが、やっぱり規制の甘い日本に売り込みに来てたんだと思いました。
    日本が有害コンテンツも含めて使いこなし始めたら、おそらく欧米も規制を緩めるのを期待されてるように思います。

  • #2

    山形県民 (金曜日, 28 7月 2023 04:52)

    チャットGPTは生成系AIで、ユーザー同士が交流するSNSではないので、なぜヘイトスピーチの話が出てくるのか不思議な記事ですね。
    チャットGPTでは、素人でも簡単にコンピューターウィルスのコードを作れてしまうといった有害性が問題となっていて、オープンAIが有害情報を生成しないよう制御しているが、その制御を破るプロンプトをユーザーが発見し、それを運営がまた制御して……という攻防が続いているのが現在の状況かと思います。
    退任でセキュリティ部門が機能しなくなるのであれば、チャットGPTでコンピューターウィルスを作り放題、様々な言語の自然な詐欺メールを作り放題になり、犯罪をしたい人が楽に犯罪できるようになりそうですね。

  • #1

    リカオン (木曜日, 27 7月 2023 23:00)

    このニュースをロイターが取り上げた重要性がイマイチよく分からないが、ヘイトスピーチや有害コンテンツを制御する事が困難で、超激務になり、担当者が放り上げて退職した。そのため、AIが有害なコンテンツに対してますますコントロールできなくなる恐れがあるという事でしょうか?

    AIを制御する側としては、何が有害か、何がヘイトかAIに教え込むのが相当難しいと言うことか?


    AIを日本に売り込みに来てたけれど、欧米に比べてAIに対する心理的なハードルが低いのだろう。例えば形式の整ったものに対する権威主義やら、著作権とか、倫理観が欧米に比べて弱いのを見透かされているようで歯痒い。

    便利な一方で新規の科学技術に倫理観なく飛びつき、有害コンテンツを制御できないまま、さらに日本人が劣化していきそうな懸念を感じてしまう。
    日本の文化の創造性が低下しなければよいが‥。