昨天的文章【本地部署并使用ChatGPT4.0】,后台的疑问有点儿多,这里统一回复一下。
-
首先我只是分享一下而已,尝试或不尝试,用或不用,好用或不好用,决定权在各人自己,不用在后台留言,更不用在后台骂骂咧咧,真没有必要,大家都是成年人。我只是分享个工具而已,能有什么坏心眼子呢。
-
这个利用Docker的方式的确不能称之为本地部署。看github中freegpt官方仓库的描述,这个使用的应该是利用了类似爬虫的原理,在网络上爬取那些提供免费gpt4.0服务的网站,然后把你的prompt发送到那些网站中并获取结果,再返回给你。知道原理就不难明白为什么不稳定了或显示是3.5了,因为一些宣称提供4.0的网站,其实提供的是3.5服务啊,明白了没。不稳定的原因很多,主要是需要经过中间节点才能连接到OpenAI,大访问量、高延迟等等都可能被OpenAI拒绝。等人少的时候用就是了。有米的道友还是直接在OpenAI弄吧,那才是最终源头。
-
目前免费无限制提供ChatGPT3.5-turbo的场所挺多,但ChatGPT4.0依然无法做到使用自由(数量受限),就刚才forefront将ChatGPT4.0的免费额度由之前的3小时3条降到3小时1条。以后这种资源只怕会越来越少。
-
写代码和处理数理方面的东西,GPT4.0和GPT3.5的能力存在非常大的差异,GPT4的结果更精准,GPT3.5一本正经胡言乱语的机会更多,写代码和处理数理方面的东西最怕一本正经胡言乱语,还不如直接说不知道。至于new bing,更偏重于搜索方面,胡言乱语添油加醋更严重,基本无法在工程领域使用。
-
如果只是不涉及数理逻辑的扯蛋聊天,中文的大模型其实表现也还凑合,比如最新的文心一言和讯飞星火。
-
ChatGPT的结果其实挺依赖于Prompt的,你的问题模糊不清,它输出的结果自然也是胡言乱语。过阵子有空了写几篇如何利用GPT提高CFD仿真的工作效率的文章。这货用好了的确能大幅提高前后处理的效率。
-
工具而已,当做提高工作效率的辅助,千万不要过于依赖。
(完毕)
本篇文章来源于微信公众号: CFD之道
评论前必须登录!
注册