private_ron
Absolute Beginner
Grundlage von ChatGPT, Deepseek und auch Gemini und allen anderen Generative AI Systemen ist ein sog. Large Language Model (LLM). Large deswegen weil eben sehr große Datenmenge analysiert und quasi in die ChatGPT Datenbank eingelesen werden (Vorgang ist deutlich komplexer). Dazu braucht man große Rechner mit vielen Prozessoren (NVIDIA lässt grüßen) und viel Strom. Alle LLMs haben einen Stichtag bis zu dem sie die Daten einlesen. Bei der ersten verfügbaren ChatGPT Version war das glaube ich zwei Jahre in der Vergangenheit, es fehlten also alle Informationen der letzten 24 Monate. So erklären sich auch bestimmte Lücken in den Antworten. Von politisch oder kulturell induzierten fehlerhaften Antworten mal abgesehen.Ich hatte halt angenommen das Chat GPT auch auf alles Zugriff hat was ich selbst über Google, Google Scholar, Webseiten, Datenbanken etc finden würde und dann auswertet ... eben nur viel schneller als ich. Scheint aber wie gesagt nicht der Fall zu sein.
Mal ein praktisches Beispiel wie wir ChatGPT nutzen können (in unserer Blase): ich habe mir mal für das Garmin Varia Rücklicht die gewünschten Funktionen von ChatGPT programmieren lassen. Es kam eine Folge von Abkürzungen und Semikola heraus. Von Hand ist dies ein aufwändiger Prozess mit viel Try and Error