Der Betrieb des aktuell stark gehypten Chatbots ChatGPT ist nicht gerade günstig.
Künstliche Intelligenz benötigt viel Rechenleistung. Je komplexer diese wird und je mehr Anfragen verarbeitet werden müssen, desto höher ist der Rechenbedarf.
Etwa 0,36 Cent pro Anfrage
Forscher gehen davon aus, dass OpenAI ungefähr 3617 HGX A100 Server einsetzt. Diese besitzen zusammen 28936 Grafikkarten. Eine einzelne (!) Anfrage an die Server kostet somit schon 36 Cent.
Enormer Strombedarf für Grafikkarten
Für den Betrieb des Nachfolgers, ChatGPT 4, liegen die Kosten noch höher sein. Aktuell wird von täglichen Kosten in Höhe von mehr als 694.000 USD ausgegangen. Ein guter Teil davon alleine deckelt allein den Strombedarf der Chips.
Deshalb verwundert es auch nicht, dass Anbieter von Apps, die die OpenAI-Schnittstelle für die Integration von ChatGPT nutzen, teils horrende Abo-Gebühren bei ihrer Kundschaft aufrufen. Die Lizenzgebührenn für Drittanbieter sind so hoch, das dies nötig wird. Dass viele User nicht bereit sind, monatlich teilweise 25 Euro zu zahlen, wäre daher verständlich.
Zu bedenken ist bei dem hohen Strombedarf auch nicht der Schaden für die Umwelt…