这几天都在聊Docker是怎么做到可以将AI服务做成一键安装包的。这里稍微做一个总结。我们原来部署一个AI服务,比如本地运行大语言模型的ollama,需要在自己的机器上跑各种依赖的安装和环境的配置,而每个机器的环境又不一样,所以导致了本地部署AI应用的困难。通过Docker,我们可以将AI应用在Docker容器中部署好,也就是依赖和环境都配置好。然后打包成一个Docker Image镜像。这样依赖,无论谁拿了这个镜像,就能一键将这个AI应用跑起来了。这就好比给你把AI应用预装到一个虚拟机上,然后谁要的话就把虚拟机下载下来运行就好了…