Die Open-Source-Plattform Ollama erlaubt die lokale Ausführung von LLMs. Mit Ollama 0.12.6 kommt experimentelle Unterstützung für Vulkan hinzu, womit sich der Kreis der unterstützten GPUs erweitert.
Die Open-Source-Plattform Ollama erlaubt die lokale Ausführung von LLMs. Mit Ollama 0.12.6 kommt experimentelle Unterstützung für Vulkan hinzu, womit sich der Kreis der unterstützten GPUs erweitert.
KI ist aus unserem Leben nicht mehr wegzudenken. Ihren wahren Wert muss sie allerdings noch beweisen. Derzeit werden Open-Source-Entwickler vermehrt mit wertlosem KI-Müll überschüttet.
Debian strebt nach vielen Diskussionen über KI ein Budget für freie Nutzung von LLMs für Entwickler an. Dabei geht es auch um KI-generierten Code.
Der Kampf um Anteile an den sich rasant entwickelnden KI-Entwicklungen ist in vollem Gange. Mozilla möchte dem mit offenen Modellen und lokaler KI entgegenwirken.