今天下午赶需求,让 GPT 帮我重构一个排序逻辑,一开始还挺正常,给出来的代码一次过。
结果中间有个 bug 它没看出来,我顺手打了一句“你 tm 是不是眼瞎,这都能写错”。然后让它再改一版。
好家伙= =
第二次给出来的代码,引入了三个新 bug ,连最基本的边界条件都漏了。我还以为是它复读旧答案,又多问了两遍,结果一次比一次离谱,最后一次直接给我返回一个死循环。
刚开始我还骂它“废物”,后来发现不对劲:同一个问题,语气越差,答案越智障。
我甚至试过直接复制之前它写对的提示词重新问,没有脏话,它又能跑通了。
这不是它记仇,就是它 ai 真的会因为你语气不好就“摆烂”。
现在我改需求都先深吸一口气,发个“请帮忙”开头。不是我有素质,是真的怕它给我整出更多 bug 。
有人遇到过吗?还是我幻觉?