Die letzten Versionen waren aber eher das Gegenteil spürbar. ChatGPT hat das Verhalten überkorrigiert, sodass das Programm übermäßig korrigierend, kritisch und widerspenstig wurde. Viele Leute, die es vorher benutzt haben, um emotional schwierige Themen zu klären, haben sich aufgrund dessen von ChatGPT abgewandt, weil es einfach keine konstruktive Haltung mehr möglich war. Also, vorher konnte man ChatGPT vermutlich vorwerfen, dass es den User zu sehr bestätigt und das auch in Fällen, wo Widerspruch wahrscheinlich klug wäre. In der letzten Version war aber das Gegenteil der Fall, und egal was man gesagt hat, ChatGPT hat allen kritisiert. Man musste aufpassen, nicht in endlose Diskussionen verstrickt zu werden. Solange keine Balance gefunden werden kann, ist ChatGPT also für emotionale Themen verbrannt.
OpenAI führt eine neue Funktion für vertrauenswürdige Kontakte ein, die sich an Nutzer richtet, die sich in einer psychischen Krise befinden. Ein Nutzer kann einen vertrauenswürdigen Erwachsenen aus seiner Kontaktliste benennen, den OpenAI benachrichtigt, wenn sich Chats zu stark in Richtung Selbstverletzung bewegen.