Grundlage von ChatGPT, Deepseek und auch Gemini und allen anderen Generative AI Systemen ist ein sog. Large Language Model (LLM). Large deswegen weil eben sehr große Datenmenge analysiert und quasi in die ChatGPT Datenbank eingelesen werden (Vorgang ist deutlich komplexer). Dazu braucht man große Rechner mit vielen Prozessoren (NVIDIA lässt grüßen) und viel Strom. Alle LLMs haben einen Stichtag bis zu dem sie die Daten einlesen. Bei der ersten verfügbaren ChatGPT Version war das glaube ich zwei Jahre in der Vergangenheit, es fehlten also alle Informationen der letzten 24 Monate. So erklären sich auch bestimmte Lücken in den Antworten. Von politisch oder kulturell induzierten fehlerhaften Antworten mal abgesehen.
Mal ein praktisches Beispiel wie wir ChatGPT nutzen können (in unserer Blase): ich habe mir mal für das
Garmin Varia Rücklicht die gewünschten Funktionen von ChatGPT programmieren lassen. Es kam eine Folge von Abkürzungen und Semikola heraus. Von Hand ist dies ein aufwändiger Prozess mit viel Try and Error