Phala Cloud verzeichnete in der vergangenen Woche ein Wachstum mit mehr Nutzern, mehr VMs und einer höheren Nachfrage nach vCPUs.

Sicher, die Nutzung von GPU-TEE ist um 23,6% gesunken – aber auf der positiven Seite ist die Nutzung von LLM-Token für Qwen 2.5 7B Instruct seit Anfang Juni durch die Decke gegangen. Intelligentere KI, schlankere Berechnungen.