In this episode of the RL Round Trip podcast, we walk through a hands-on demo showing how to use Ollama to run AI models locally or in the cloud, and integrate them with tools like Codex and Claude We explain how to choose between local and cloud models based on your needs, then move into a real-world networking and IT use case You will see how to: Set up guardrails for the model Provide network context (access, subnets, environment) Test connectivity Execute real tasks such as provisioning a Kubernetes cluster This episode focuses on practical usage and how to turn AI from a simple chat tool into a real operational assistant in networking and IT.
في الحلقة دي بنعمل عرض عملي بيورّي إزاي تستخدم منصة تشغيل النماذج لتشغيل نماذج الذكاء الاصطناعي على جهازك أو عن طريق السحابة، وإزاي تربطها بأدوات برمجية مختلفة
بنبدأ بشرح إزاي تختار بين التشغيل المحلي أو السحابي حسب احتياجك، وبعد كده بندخل في مثال عملي من شغل الشبكات وتقنية المعلومات
الحلقة بتركّز على التطبيق العملي، وإزاي تخلي الذكاء الاصطناعي يشتغل فعلاً في بيئة التشغيل بدل ما يكون مجرد
