教学:Lisp接入本地免费AI大语言模型
本帖最后由 不死猫 于 2025-1-15 10:55 编辑目前最热的本地AI语言模型平台是Ollama。
首先打开网站
https://ollama.com/download
下载你系统对应的安装包
安装好之后键盘win+R,输入CMD回车打开系统命令提示符
输入命令Ollama list,如果可以查看,则说明Ollama已经安装好了
猫老师电脑返回内容如下:
NAME ID SIZE MODIFIED
nemotron-mini:latest ed76ab18784f 2.7 GB 17 hours ago
llama3.3:latest a6eb4748fd29 42 GB 2 weeks ago
qwen2.5:latest 845dbda0ea48 4.7 GB 2 weeks ago
然后执行命令,下载模型并开始对话:
Ollama run qwen2.5:7b-instruct
注意,每个模型一般要求系统内存最好大于模型文件的2倍或更高,不然回答会很卡。
在这个网址查询其他的模型下载
https://ollama.com/library
其中qwen2.5是默认的中文模型,可以选择更小的,也可以选择更大的。越大的模型需要的内存越大。
等待下载完成后,
出现对白内容:
>>>Send a message (/? for help)
这时就可以直接聊天了。
等你聊够了,我们输入/bye 可以关闭这个聊天。
接下来是Lisp代码部分,我们要接入这个平台,让我们的Lisp能够和AI进行对话。
应该没啥用,自己训练吗?以个人的时间和训练量来看,基本等于没有训练。直接要获取AI的结果吗?还真不如直接找个支持网页的AI,如DeepSeek问的。
凑个热闹
(setq str "vlisp语言的setq示例")
(setq mod "deepseek-r1:1.5b") ;您在本地部署的deepseek模型名字,您可以在cmd控制台上输入Ollama list,弹出的列表中有,复制粘贴到这里即可
(setq sql
(strcat
"{\
\"model\": \""
mod
"\",\
\"prompt\": \""
str
"\",\
\"stream\": false\
}" )
)
(setq STR
($http-local$ ;本地exe通信函数,go语言的通道
(list
(cons "IP" "http://localhost")
(cons "端口" "11434")
(cons "接口" "api/generate") ;Update;Query
;(cons "数据库路径" "C:\\ZXCAD.DB")
(cons "报文头"
(list (cons "Client-Auth" (getenv "ComputerName")))
)
(cons "Sql" sql)
(cons "http方法" "POST")
(cons "返回格式" "str")
)
)
)
(progn
(setq start (vl-string-search (strcat "\"" "response" "\":\"") STR))
(if start
(progn
(setq start (+ start (strlen (strcat "\"" "response" "\":\""))))
(setq end (vl-string-search "\"" STR start))
(setq field-value (substr STR start (- end start)))
(setq jg (vl-string-subst "" "\\n" field-value))
(alert jg)
)
)
)
老猫精品,非常好! 猫老师出品,必是精品!!
老猫精品,非常好! 强大啊 猫老师作品,必是精品,强! 与时俱进~ 能不能让支持openai的api,即DeepSeek接口 真是学无止境,佩服!
页:
[1]
2