「○○が××である可能性は?(論じよ)」みたいに聞くとそれなりの答えになるが、「○○って××?」とイエスノーの質問にすると、なんかイエスなのにノーと言ったり、話がぶれやすい印象。
人間にとってはイエスノーの質問の方が簡単だが、AIには難しいのか?
あるいは単に、長文でだらだら書く調教をされてるせいで簡単な答えほど無理が出るというアホみたいな仕様になっているだけか?
Permalink | 記事への反応(0) | 23:28
ツイートシェア