ChatGPT也有多种局限,OpenAI承认ChatGPT“有时会写出看似合理但不正确或荒谬的答案”,这在大型语言模型中很常见,称作人工智能幻觉。其奖励模型围绕人类监督而设计,可能导致过度优化,从而影响性能,即古德哈特定律。2020年上线时,ChatGPT对2019年9月之后发生的事件知之甚少。据BBC报道,截至2022年12月,ChatGPT不可以“表达政治观点或从事政治活动”。但研究表明,ChatGPT对两个投票建议应用程序的政治声明表明立场时,表现出亲环境主义。训练过程中,不管实际理解或事实内容如何,审核者都会偏好更长的答案。训练数据也有算法偏差,可能会在向ChatGPT问及人物描述时显现出来,比如当程序接受到首席执行官之类的模糊描述时可能会假设此人是白人男性。有用户发现ChatGPT在解决较为复杂的题目(如求方程式的切线)时会给出错误答案,并且会在解一元一次方程式时陷入循环。