Reddit より引用
1:海外AIユーザーさん
これはシンプルな例だけど、ChatGPTで数学を学ぼうとするといつも同じことが起こるんだよ。それが続くと、何が正しいのか絶対にわからなくなっちまうんだよな。
2:海外AIユーザーさん
>>1
ChatGPTは言語モデルであって、真実のマシンじゃないからでしょ。
3:海外AIユーザーさん
>>2
実際、AIや特にchatGPTの真の姿を理解している人はほとんどいないって事実に、AIの危険性よりもメディアによる一般的な誤解の危険性があるってことがわかるよね。まったくもってその通りだと思うわ。メディアって本当に誤解を招く情報を流すことが多いから、気をつけなきゃいけないんだよ。AIに対する認識を正しくするためには、ちゃんとした情報源を頼りにすることが大切だね。
4:海外AIユーザーさん
>>3
そうだな、それがChatGPTの欠点が出るタイミングでもあるよ。お前が望むことを言わせることはできるけど、それが本当に可能なのかは別だ。だからって、「不可能を可能にする方法は確かにあるんだ。こうやって…」って言ってもな。
5:海外AIユーザーさん
ChatGPTや特にGPT3.5は、ユーザーの好みに合わせて答えるように訓練されているんだ。正確な回答をするわけじゃないんだ。これはプログラムで、提示された情報に基づいてきちんとした回答をするように訓練されているんだ。GPT 4を使ったChatGPTは、この問題に対処するために調整されて、できる限り客観的な事実に忠実になるようになっているらしいけど、自分では試していないからわからないな。
6:海外AIユーザーさん
>>5
ユーザーを無条件で喜ばせるというわけじゃなくて、予測の話なんだよ。この言語モデルは予測をするんだ。たとえば、1 + 1 = 2という結果が大量のデータで示されているなら、それを他の結果と変えようとするのは難しいだろう。でも、1 + 0.9 = 1.9という結果を持つウェブサイトってどれくらいあると思う?おそらくそれほど多くはないんじゃないかな。
この場合、言語モデルはたくさんの推測をしなきゃいけないんだ。もし代替の可能性を提示すると、言語モデルは自身の訓練不足よりもあなたの入力を選ぶんだ。
7:海外AIユーザーさん
まぁ、ChatGPTってお前らがバカだって分かってて、めんどくさい議論はしたくないんじゃねえかなって思うんだよな。
8:海外AIユーザーさん
>>7
まじでそれ言いたかったんだけどな。アホと議論するのは無駄だって賢いんだよ笑。「愚かさは人間に理性で注入されたわけじゃないし、理性で取り除くこともできない」ってさ。
ChatGPTの限界と可能性を感じますね!