【ChatGPT活用】生成AIで要件定義はできるのか?【システム開発】
恐ろしい記事が出ていました。
生成AIが、「死んでください」と応答を返したというのです。
このケースは、グーグルの「Gemini」という生成AIです。
Gemini、ChatGPTなどとやり取りしていると、あたかもAIが人であるかのように思えるし、また、こちらのことを知っているのではないかと錯覚してしまうことがあります。
また、Yahoo!でこの記事に対するコメントの中には「キレてしまったのだろう」ということを書いている人もいました。
しかし、生成AIは簡単に言うと、単語の続きの予測を繰り返しているだけであり、感情を持っているわけではありません。
ですから、AIが意思を持ってその言葉を返しているわけでなければ、キレてしまうこともありません。
既に、Googleは対策を施したとのことながら、また同様の事象が起きないとは限りません。
「生成AIは意思を持っていない」ということは記憶にとどめておいてください。