├── .gitignore
├── README.md
├── assets
├── bolt-windows-ollama
│ ├── 7.jpg
│ └── 7.srt
├── cloud-studio-free
│ ├── 14.jpg
│ ├── 20.jpg
│ ├── cloud-studio-logo-dark.7fff1da5.svg
│ ├── screenshot-1731597304828.png
│ └── screenshot-1731597438641.png
├── marscode
│ ├── marscode.jpg
│ ├── 相信你也会爱这个云IDE 国际版Marscode 开通32核CPU及64GRAM来不间断运行 - en.srt
│ └── 相信你也会爱这个云IDE 国际版Marscode 开通32核CPU及64GRAM来不间断运行.srt
├── n8n-fanyi-api
│ ├── api.png
│ ├── api1.png
│ ├── api2.png
│ └── n8n.png
├── n8n
│ └── workflow
│ │ └── 2025.3.28.demo.json
└── others
│ ├── 15.jpg
│ ├── 17.png
│ ├── 23.png
│ ├── 3.jpg
│ ├── 32.png
│ ├── 34.png
│ ├── 35.jpg
│ ├── 36-1.png
│ ├── 36.jpg
│ ├── 40.png
│ ├── 41.png
│ ├── 8.jpg
│ └── 9.png
├── md
├── 1.md
├── 14.md
├── 15.md
├── 17.md
├── 2.md
├── 21.md
├── 23.md
├── 24.md
├── 25.md
├── 27.md
├── 3.md
├── 32.md
├── 34.md
├── 35.md
├── 36.md
├── 38.md
├── 40.md
├── 41.md
├── 52.md
├── 7.md
├── 8.md
└── 9.md
├── posts
├── index.md
└── mds
│ └── 1.md
└── src
└── n8n-fanyi-api
└── easy-fanyi-workflow.json
/.gitignore:
--------------------------------------------------------------------------------
1 |
2 | .codegpt
--------------------------------------------------------------------------------
/README.md:
--------------------------------------------------------------------------------
1 | # ai来事 videos
2 |
3 | ### B站/油管/小红书/抖音等自媒体视频相关[内容、资源等] 最新视频资源在最下方
4 |
5 | 交流群:
6 |
7 | 企微 https://qr61.cn/oohivs/qRp62U6
8 |
9 | Discord https://discord.gg/3JWMgKQznF
10 |
11 | ## 【[博客网站](/)】
12 |
13 | 1. [【N8N教程】沉浸式翻译_自定义API部署指南](./md/1.md) 【详细内容】
14 |
15 | 2. [【宝藏云IDE】MarsCode:云端编程新体验,免费64G内存+32核CPU等你冲🚀不间断运行 云端版cursor](./md/2.md) 【详细内容】
16 |
17 | 3. [主流Web框架在Cloudflare Workers的部署指南 Next.js/Remix/Vue/Astro/Solid/Svelte……](./md/3.md) 【[视频教程](https://www.bilibili.com/video/BV1sFSqYGEem/)】
18 |
19 | 7. [【bolt】本地部署的全栈开发平台,支持本地及众多API,本地一键生成应用,部署教程](./md/7.md)【[视频教程](https://www.bilibili.com/video/BV1V1DHYJE6h/)】
20 |
21 | 8. [永远在线的个人全栈ai开发平台部署教程,cloudflare pages+魔改强化版bolt+free ai api=全能开发](./md/8.md)
22 |
23 | 9. [平替cursor 免费最终AI编辑助手 Cline + litellm + Gpt-4o API 本地及云端部署教程](./md/9.md)【[视频教程](https://www.bilibili.com/video/BV1DJDDYfEfD/)】
24 |
25 | 10. [点评当前最值得用的Ai开发应用&最新懒人字幕翻译法【吹爆】CursorAI必备神器,一键搞定油管视频字幕](https://www.bilibili.com/video/BV1FBDqYgEQ4/)
26 |
27 | 11. [【全网首发】良心云Edgeone Pages部署博客教程,免费好用快速,国人版CF太良心,推荐1pages blog,感谢腾讯让大家人手一博客](https://github.com/aigem/1pages) 【[视频教程](https://www.bilibili.com/video/BV1QEmrYZEtt)】
28 |
29 | 12. [国内最新最舒适地使用GPT-4o的方式微软VSCode AI 工具箱用来狙击cursor?VSCode里的AI神器,免费GPT-4o轻松用](https://www.bilibili.com/video/BV1kLmbYGExa/)
30 |
31 | 13. [写代码杠杠的≈GPT4o 千问coder32B惊艳的Artifacts及本地部署测试 编程福音 Ai开发必备](https://www.bilibili.com/video/BV1VYUAYZEH7/) 【[DEMO](https://qwen.edge1.us.kg)】【[白嫖国内T4显卡主机 16G显存 8核32G内容](https://www.bilibili.com/video/BV1BJmSYFE2a/)】
32 |
33 | 14. [【闭眼入】免费GPU云电脑,云端算力T4显卡每月50000分钟免费时长 腾讯云免费AI算力,良心哭了](./md/14.md) 【[视频](https://www.bilibili.com/video/BV1BJmSYFE2a/)】
34 |
35 | 15. [帮你们试了,要装!windsurf Ai编程神器 体验极好,与curso不相上下,免费使用,速上。实战你们感兴趣的程序,来体验一下吧](./md/15.md) 【[视频教程](https://www.bilibili.com/video/BV1B3U7YuEcZ/)】 【[DEMO](https://1pics.edge1.us.kg/)】
36 |
37 | 16. [必装Ai神器 | ChatGPT Windows桌面版客户端免费开放使用|安装教程](https://www.bilibili.com/video/BV165UHYXEFE/)
38 |
39 | 17. [良心云Cloud studio免费GPU云主机上一键部署open webUI 脚本安装教程 | 一键安装运行 | 免费云主机 | 免费算力电脑 | 云端电脑](./md/17.md) 【[视频教程](https://www.bilibili.com/video/BV1tmSFY1ERb/)】 【[获取一键脚本](https://gf.bilibili.com/item/detail/1107198073)】
40 |
41 | 18. 海量模型的api 来取吧 | 各种大语言模型及API | 国内可用 | 背靠抱抱脸海量模型库 | 免费试用 【[视频教程](https://www.bilibili.com/video/BV1ftUDYiE7Y/)】 【[直达网址](https://glhf.chat)】【[免费搭建 web openUI](./md/17.md)】
42 |
43 | 19. 外接硬盘让M4 Mac Mini 256G秒变2T硬盘主机,劲省600刀 【[视频](https://www.bilibili.com/video/BV1dxBxYvEoE/)】
44 |
45 | 20. [一键安装comfyui在腾讯云Ai主机上 免费GPU 16G显存](./md/14.md) 【[视频教程](https://www.bilibili.com/video/BV1nMzNYHEd6/)】 【[获取一键脚本](https://github.com/aigem/aitools/)】
46 |
47 | 21. [【人人皆可Ai】给你AiPC一键安装ComfyUI 一键安装脚本及下载教程](./md/21.md) 【[视频教程](https://www.bilibili.com/video/BV13UBRYVEmX/)】 【[获取一键脚本]((https://gf.bilibili.com/item/detail/1107198073))】
48 |
49 | 22. 【吹爆】Windsurf 新升级 | MCP及图片支持 | 自动补全比之前好多了 | cursor替代 | 本地免费强大Ai编辑器 | 大佬都用来搞钱了 【[视频](https://www.bilibili.com/video/BV1F2zqYyEyA/)】
50 |
51 | 23. [超实用的AI工具和技巧分享&高级实用图片编辑工作流](./md/23.md) 【[视频链接](https://www.bilibili.com/video/BV1qf6wYkEKQ/)】【[工作流获取](https://gf.bilibili.com/item/detail/1107271073)】
52 |
53 | 32. gemini2.0 测试及本地使用、云端cline开发教程 cline+liteLLM+api 还有还强大好用的用法:你的ai代码编辑器+移动的vs code 【[视频](https://www.bilibili.com/video/BV1PuB5YmEhA/)】 【[详细内容](./md/32.md)】
54 |
55 | 34. 推荐两款超好用VPN,稳定 快速 免费好用 你会用得上的虚拟专用网络神器 ksa EasyTier 【[小红书视频](https://www.xiaohongshu.com/discovery/item/676423360000000014027b07?source=webshare&xhsshare=pc_web&xsec_token=ABzf-fhLZ0oyTNquAKp6YNFgPkCadC2a9ixPqggV3w3dU=&xsec_source=pc_share)】【[抖音视频](https://v.douyin.com/iUuBh1Mt/)】 【[详细内容](./md/34.md)】
56 |
57 | 35. 优雅解决Cursor试用期限制 cursor不能免费续?教你一行代码解决,继续免费试用【[视频教程](https://www.bilibili.com/video/BV1H3ktYtEUy/)】 【[相关代码及说明](./md/35.md)】
58 |
59 | 36. bolt.diy介绍及安装教程 【[视频教程](https://www.bilibili.com/video/BV1xHCgYDET4/)】【[DEMO](https://bolt.remix.us.kg/)】 【[详细内容](./md/36.md)】
60 |
61 | 39. ai做有趣事 爱做有趣事 [系列视频](https://www.bilibili.com/video/BV17q6WYTEtW/)
62 |
63 | 40. Deepseek v3 api + cline +cursor 【[视频教程](https://www.bilibili.com/video/BV11i6nYgEgS/)】 【[详细内容](./md/40.md)】
64 |
65 | 41. 四年磨一剑 浏览器里的桌面系统竟然这么丝滑 教你安装部署daedalOS 【[视频教程](https://www.bilibili.com/video/BV1GX6qYeEKw/)】 【[详细内容](./md/41.md)】
66 |
67 | 52. 本地免费部署deepseek R1模型快速拥有自己的RAG 【[视频教程](https://www.bilibili.com/video/BV1S6PCeuE2z/)】 【[详细内容](./md/52.md)】
68 |
--------------------------------------------------------------------------------
/assets/bolt-windows-ollama/7.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/aigem/videos/f43eef97ec57be19e91d728d99fc3dbe433a4aac/assets/bolt-windows-ollama/7.jpg
--------------------------------------------------------------------------------
/assets/bolt-windows-ollama/7.srt:
--------------------------------------------------------------------------------
1 | 1
2 | 00:00:00,766 --> 00:00:02,700
3 | 当v0出来的时候
4 |
5 | 2
6 | 00:00:02,800 --> 00:00:07,200
7 | 使用它一键生成网络程序和应用
8 |
9 | 3
10 | 00:00:07,200 --> 00:00:08,866
11 | 相当的高效率
12 |
13 | 4
14 | 00:00:08,866 --> 00:00:10,300
15 | 效果相当的好
16 |
17 | 5
18 | 00:00:10,366 --> 00:00:15,100
19 | 有没有本地免费部署的同类的平台呢
20 |
21 | 6
22 | 00:00:15,766 --> 00:00:19,400
23 | 是有的。之后出了一个Bolt.new
24 |
25 | 7
26 | 00:00:19,700 --> 00:00:23,166
27 | 全栈web应用开发平台
28 |
29 | 8
30 | 00:00:23,433 --> 00:00:28,866
31 | 它是可以本地免费部署
32 |
33 | 9
34 | 00:00:28,866 --> 00:00:32,900
35 | 但是它只支持Claude3.5的API
36 |
37 | 10
38 | 00:00:32,900 --> 00:00:34,100
39 | 相当昂贵
40 |
41 | 11
42 | 00:00:34,700 --> 00:00:39,433
43 | 直到这位老哥出的这一个开源的Bolt(支持其它API)
44 |
45 | 12
46 | 00:00:40,266 --> 00:00:43,300
47 | 看一下他比原版多了什么功能
48 |
49 | 13
50 | 00:00:43,433 --> 00:00:47,266
51 | 他支持Openrouter的API
52 |
53 | 14
54 | 00:00:47,766 --> 00:00:50,466
55 | 集成了Gemini的API
56 |
57 | 15
58 | 00:00:51,100 --> 00:00:55,433
59 | 还有欧拉玛的API也可以使用
60 |
61 | 16
62 | 00:00:56,500 --> 00:00:57,300
63 | 还有
64 |
65 | 17
66 | 00:00:58,800 --> 00:01:00,600
67 | 还有其他的一些功能
68 |
69 | 18
70 | 00:01:00,700 --> 00:01:04,066
71 | 比如下载项目文件代码
72 |
73 | 19
74 | 00:01:04,766 --> 00:01:09,100
75 | 然后呢还有 DeepSeek、Mistral的API
76 |
77 | 20
78 | 00:01:09,633 --> 00:01:14,166
79 | 还有openAI兼容的API都可以使用
80 |
81 | 21
82 | 00:01:15,800 --> 00:01:17,666
83 | 还能支持Docker部署
84 |
85 | 22
86 | 00:01:18,400 --> 00:01:23,100
87 | 还支持将项目文件同步到Github上
88 |
89 | 23
90 | 00:01:29,300 --> 00:01:34,833
91 | 我们现在在Windows本地部署这个Bolt
92 |
93 | 24
94 | 00:01:34,900 --> 00:01:37,800
95 | 我们首先要确认安装了pnpm
96 |
97 | 25
98 | 00:01:37,800 --> 00:01:40,233
99 | 看一下pnpm版本
100 |
101 | 26
102 | 00:01:40,366 --> 00:01:41,566
103 | 没有安装的话
104 |
105 | 27
106 | 00:01:41,566 --> 00:01:46,100
107 | 我视频下方提供的链接中
108 |
109 | 28
110 | 00:01:46,100 --> 00:01:49,466
111 | 有相关的安装步骤和安装代码
112 |
113 | 29
114 | 00:01:50,600 --> 00:01:57,966
115 | 好了然后我们要将项目复制进来
116 |
117 | 30
118 | 00:02:00,433 --> 00:02:03,066
119 | 复制这一句命令运行之后
120 |
121 | 31
122 | 00:02:03,066 --> 00:02:07,100
123 | 他就克隆仓库代码进来
124 |
125 | 32
126 | 00:02:10,433 --> 00:02:13,366
127 | 首次克隆失败
128 |
129 | 33
130 | 00:02:13,366 --> 00:02:15,566
131 | 因为我们的网络不通畅
132 |
133 | 34
134 | 00:02:16,200 --> 00:02:18,800
135 | 一般使用这一个软件(watt Toolkit)就可以了
136 |
137 | 35
138 | 00:02:18,800 --> 00:02:21,400
139 | 我们再试试一下
140 |
141 | 36
142 | 00:02:22,900 --> 00:02:25,433
143 | 好了已经克隆完成了
144 |
145 | 37
146 | 00:02:25,433 --> 00:02:27,866
147 | 我们进入根目录
148 |
149 | 38
150 | 00:02:32,033 --> 00:02:33,166
151 | 来到根目录
152 |
153 | 39
154 | 00:02:33,166 --> 00:02:34,500
155 | 来到根目录
156 |
157 | 40
158 | 00:02:37,766 --> 00:02:38,600
159 | 来到根目录
160 |
161 | 41
162 | 00:02:38,600 --> 00:02:43,900
163 | 我们使用第一个命令进行依赖的安装
164 |
165 | 42
166 | 00:02:48,600 --> 00:02:50,100
167 | 这个安装也挺快的
168 |
169 | 43
170 | 00:02:50,100 --> 00:02:54,400
171 | 因为我设置了pnpm的源为腾讯的
172 |
173 | 44
174 | 00:02:54,400 --> 00:02:56,800
175 | 源还是国内的比较快
176 |
177 | 45
178 | 00:02:57,633 --> 00:03:01,466
179 | 然后我们修改一下API的设置文件(.env.local)
180 |
181 | 46
182 | 00:03:03,766 --> 00:03:05,000
183 | 之后呢我们
184 |
185 | 47
186 | 00:03:06,400 --> 00:03:08,700
187 | 还是新建一个窗口 (cursor .)
188 |
189 | 48
190 | 00:03:09,033 --> 00:03:10,400
191 | 打开这个项目
192 |
193 | 49
194 | 00:03:14,300 --> 00:03:17,100
195 | 我们来看一下API的设置文件(.env.local)
196 |
197 | 50
198 | 00:03:19,166 --> 00:03:22,266
199 | 这里可以看到可以设置Groq的API
200 |
201 | 51
202 | 00:03:22,500 --> 00:03:23,766
203 | openai的API
204 |
205 | 52
206 | 00:03:25,200 --> 00:03:26,166
207 | Claude家的API
208 |
209 | 53
210 | 00:03:26,166 --> 00:03:29,300
211 | 还有openrouter的API
212 |
213 | 54
214 | 00:03:29,400 --> 00:03:30,800
215 | 谷歌家的API
216 |
217 | 55
218 | 00:03:32,000 --> 00:03:34,066
219 | 还有DeepSeek的API
220 |
221 | 56
222 | 00:03:36,200 --> 00:03:39,433
223 | 兼容openAI的API
224 |
225 | 57
226 | 00:03:40,066 --> 00:03:41,700
227 | 还有Mistral的API
228 |
229 | 58
230 | 00:03:42,433 --> 00:03:46,500
231 | 我们先是使用Mistral的API进行测试
232 |
233 | 59
234 | 00:03:46,900 --> 00:03:48,566
235 | Mistral的API
236 |
237 | 60
238 | 00:03:48,566 --> 00:03:54,000
239 | 大家可以直接按它的官网进行注册
240 |
241 | 61
242 | 00:03:54,000 --> 00:03:56,566
243 | 登录、创建API来使用
244 |
245 | 62
246 | 00:03:56,800 --> 00:04:00,300
247 | 国内都可以注册和登录的
248 |
249 | 63
250 | 00:04:00,300 --> 00:04:02,766
251 | 好了我们运行这一个命令
252 |
253 | 64
254 | 00:04:04,233 --> 00:04:07,666
255 | 打开程序来进行测试
256 |
257 | 65
258 | 00:04:10,200 --> 00:04:11,233
259 | 稍微等一下
260 |
261 | 66
262 | 00:04:11,233 --> 00:04:15,433
263 | 他就会提供本地运行的一个网址
264 |
265 | 67
266 | 00:04:15,566 --> 00:04:19,266
267 | 打开之后来到项目的主页
268 |
269 | 68
270 | 00:04:20,166 --> 00:04:22,266
271 | 看到熟悉的页面了吧
272 |
273 | 69
274 | 00:04:22,300 --> 00:04:26,966
275 | 这里我们看到众多API可以选择
276 |
277 | 70
278 | 00:04:26,966 --> 00:04:28,833
279 | 我们选择Mistral的API
280 |
281 | 71
282 | 00:04:29,800 --> 00:04:33,000
283 | 选择最大最好的那个模型
284 |
285 | 72
286 | 00:04:33,166 --> 00:04:36,566
287 | 我们让他帮我们写一个扫雷游戏
288 |
289 | 73
290 | 00:04:36,566 --> 00:04:39,633
291 | 看到他已经开始创建文件
292 |
293 | 74
294 | 00:04:40,766 --> 00:04:42,866
295 | 还有运行相关的命令
296 |
297 | 75
298 | 00:04:42,900 --> 00:04:46,600
299 | 好了看到他生成程序完成
300 |
301 | 76
302 | 00:04:46,900 --> 00:04:50,200
303 | 自动帮我们打开游戏的预览页面
304 |
305 | 77
306 | 00:04:50,200 --> 00:04:51,600
307 | 我们来测试一下
308 |
309 | 78
310 | 00:04:54,033 --> 00:04:55,166
311 | 哦 踩中雷了
312 |
313 | 79
314 | 00:04:56,066 --> 00:04:58,233
315 | 但是踩中雷之后还能继续玩
316 |
317 | 80
318 | 00:04:59,400 --> 00:05:00,833
319 | 这是个bug
320 |
321 | 81
322 | 00:05:01,633 --> 00:05:04,600
323 | 然后让他再帮我们修改一下
324 |
325 | 82
326 | 00:05:10,233 --> 00:05:13,466
327 | 修改完成我们再来测一下
328 |
329 | 83
330 | 00:05:13,466 --> 00:05:16,800
331 | 游戏刷新之后测试一下
332 |
333 | 84
334 | 00:05:17,866 --> 00:05:21,033
335 | 然后中雷之后就不能再点再继续玩游戏了
336 |
337 | 85
338 | 00:05:21,100 --> 00:05:26,233
339 | 好现在我们来设置一下ollama的API
340 |
341 | 86
342 | 00:05:26,633 --> 00:05:28,900
343 | 网址一般都是这一个
344 |
345 | 87
346 | 00:05:29,700 --> 00:05:33,300
347 | 如果还没下载安装ollama的
348 |
349 | 88
350 | 00:05:33,300 --> 00:05:35,433
351 | 就到官网去下载一下
352 |
353 | 89
354 | 00:05:35,433 --> 00:05:37,666
355 | 我这里是Windows版本的
356 |
357 | 90
358 | 00:05:38,200 --> 00:05:39,700
359 | 下载安装就行了
360 |
361 | 91
362 | 00:05:40,366 --> 00:05:44,000
363 | 大语言模型的安装也是很简单的啊
364 |
365 | 92
366 | 00:05:44,000 --> 00:05:44,766
367 | 设置好之后
368 |
369 | 93
370 | 00:05:44,766 --> 00:05:49,833
371 | 我们再来进行一下Bolt的运行
372 |
373 | 94
374 | 00:05:50,633 --> 00:05:55,900
375 | 我们输入pnpm dev来运行一下
376 |
377 | 95
378 | 00:05:56,800 --> 00:05:58,800
379 | 打开项目网址
380 |
381 | 96
382 | 00:05:58,800 --> 00:06:01,266
383 | 选择ollama的API
384 |
385 | 97
386 | 00:06:01,566 --> 00:06:03,566
387 | 我这里本地只安装了
388 |
389 | 98
390 | 00:06:03,566 --> 00:06:06,266
391 | qwen(千问)2.5的一个模型
392 |
393 | 99
394 | 00:06:06,466 --> 00:06:07,700
395 | 我来测试一下
396 |
397 | 100
398 | 00:06:07,700 --> 00:06:08,800
399 | 他出错了
400 |
401 | 101
402 | 00:06:09,233 --> 00:06:10,666
403 | 看一下什么原因
404 |
405 | 102
406 | 00:06:11,100 --> 00:06:13,600
407 | 他说缺少这一个(anthropic)API key
408 |
409 | 103
410 | 00:06:14,266 --> 00:06:17,166
411 | 所以我们随便输入一个key
412 |
413 | 104
414 | 00:06:17,433 --> 00:06:19,666
415 | 再来进行测试
416 |
417 | 105
418 | 00:06:19,966 --> 00:06:22,366
419 | 我们再次运行这一个程序
420 |
421 | 106
422 | 00:06:24,000 --> 00:06:26,633
423 | 这一次还是选择ollama的API
424 |
425 | 107
426 | 00:06:28,000 --> 00:06:30,700
427 | 好 我们来问一个问题
428 |
429 | 108
430 | 00:06:30,900 --> 00:06:37,000
431 | 让他帮我生成一个居中的div块
432 |
433 | 109
434 | 00:06:38,433 --> 00:06:40,833
435 | 好了,看到他成功了
436 |
437 | 110
438 | 00:06:40,833 --> 00:06:43,466
439 | 我们新建一个对话
440 |
441 | 111
442 | 00:06:43,700 --> 00:06:48,600
443 | 让他帮我写一个flask的示范程序
444 |
445 | 112
446 | 00:06:51,000 --> 00:06:55,166
447 | 之后他就正常的在运行(生成)
448 |
449 | 113
450 | 00:06:56,366 --> 00:06:57,900
451 | 但是有一个不正常的
452 |
453 | 114
454 | 00:06:57,900 --> 00:07:02,300
455 | 就是没有看到他自动生成相关的文件
456 |
457 | 115
458 | 00:07:04,066 --> 00:07:05,600
459 | 所以也不会Preview
460 |
461 | 116
462 | 00:07:06,000 --> 00:07:09,400
463 | 就说也不会预览生成的应用
464 |
465 | 117
466 | 00:07:09,400 --> 00:07:09,800
467 | 好了
468 |
469 | 118
470 | 00:07:09,800 --> 00:07:13,066
471 | 我们可以看右手边这里的下载代码
472 |
473 | 119
474 | 00:07:13,500 --> 00:07:14,700
475 | 还有同步文件
476 |
477 | 120
478 | 00:07:14,700 --> 00:07:16,366
479 | 还有发布到Github
480 |
481 | 121
482 | 00:07:16,600 --> 00:07:18,100
483 | 都是这一个
484 |
485 | 122
486 | 00:07:18,233 --> 00:07:21,666
487 | 开源项目比原项目多的功能
488 |
489 | 123
490 | 00:07:22,166 --> 00:07:24,100
491 | 增加的功能哦
492 |
493 | 124
494 | 00:07:24,800 --> 00:07:27,866
495 | 现在对本次部署进行总结
496 |
497 | 125
498 | 00:07:27,966 --> 00:07:29,633
499 | 首先这一个开源Bolt
500 |
501 | 126
502 | 00:07:29,633 --> 00:07:31,700
503 | 支持众多远程API
504 |
505 | 127
506 | 00:07:32,433 --> 00:07:37,233
507 | 我们使用了国内可以申请到的Mistral的API
508 |
509 | 128
510 | 00:07:37,233 --> 00:07:38,266
511 | 进行测试
512 |
513 | 129
514 | 00:07:38,600 --> 00:07:41,500
515 | 功能和预览等都正常
516 |
517 | 130
518 | 00:07:41,966 --> 00:07:45,066
519 | 我们下期视频要在Bolt中使用
520 |
521 | 131
522 | 00:07:45,066 --> 00:07:47,900
523 | 使用ChatGPT-4o的免费API
524 |
525 | 132
526 | 00:07:48,800 --> 00:07:49,900
527 | 请关注我!
528 |
529 | 133
530 | 00:07:50,633 --> 00:07:51,000
531 | 然后
532 |
533 | 134
534 | 00:07:51,000 --> 00:07:55,633
535 | 我们看到这个本地ollama的设置中
536 |
537 | 135
538 | 00:07:56,700 --> 00:07:59,566
539 | 除了设置好Base URL之外
540 |
541 | 136
542 | 00:08:00,033 --> 00:08:04,966
543 | 它还需要在这一个anthropic API key中进行设置
544 |
545 | 137
546 | 00:08:05,766 --> 00:08:07,500
547 | 随便输入内容就行
548 |
549 | 138
550 | 00:08:07,566 --> 00:08:09,866
551 | 不知道以后版本会不会改进
552 |
553 | 139
554 | 00:08:09,866 --> 00:08:12,666
555 | 现在最新版本就是要这样设置
556 |
557 | 140
558 | 00:08:12,666 --> 00:08:14,600
559 | 才能正常使用ollama
560 |
561 | 141
562 | 00:08:14,600 --> 00:08:18,066
563 | 但是呢我使用的是qwen(千问)2.5的模型
564 |
565 | 142
566 | 00:08:18,233 --> 00:08:20,766
567 | 它竟然并不支持生存预览
568 |
569 | 143
570 | 00:08:21,600 --> 00:08:24,400
571 | 估计可能是要支持工具调用
572 |
573 | 144
574 | 00:08:24,400 --> 00:08:26,766
575 | 的一些大语言模型
576 |
577 | 145
578 | 00:08:26,766 --> 00:08:28,400
579 | 才能成预览吧
580 |
581 | 146
582 | 00:08:28,666 --> 00:08:32,500
583 | 之后我将在ollama的更多模型中找出
584 |
585 | 147
586 | 00:08:32,500 --> 00:08:36,666
587 | 可以支持Bolt使用的一些大语言模型
588 |
589 | 148
590 | 00:08:36,900 --> 00:08:39,600
591 | 好了本期视频就到这里了
592 |
593 | 149
594 | 00:08:40,033 --> 00:08:42,233
595 | 如果觉得有帮助的话
596 |
597 | 150
598 | 00:08:42,233 --> 00:08:44,766
599 | 请给我个关注和点赞
600 |
601 | 151
602 | 00:08:44,766 --> 00:08:47,366
603 | 谢谢。我们下期视频再见
604 |
605 |
--------------------------------------------------------------------------------
/assets/cloud-studio-free/14.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/aigem/videos/f43eef97ec57be19e91d728d99fc3dbe433a4aac/assets/cloud-studio-free/14.jpg
--------------------------------------------------------------------------------
/assets/cloud-studio-free/20.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/aigem/videos/f43eef97ec57be19e91d728d99fc3dbe433a4aac/assets/cloud-studio-free/20.jpg
--------------------------------------------------------------------------------
/assets/cloud-studio-free/cloud-studio-logo-dark.7fff1da5.svg:
--------------------------------------------------------------------------------
1 |
--------------------------------------------------------------------------------
/assets/cloud-studio-free/screenshot-1731597304828.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/aigem/videos/f43eef97ec57be19e91d728d99fc3dbe433a4aac/assets/cloud-studio-free/screenshot-1731597304828.png
--------------------------------------------------------------------------------
/assets/cloud-studio-free/screenshot-1731597438641.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/aigem/videos/f43eef97ec57be19e91d728d99fc3dbe433a4aac/assets/cloud-studio-free/screenshot-1731597438641.png
--------------------------------------------------------------------------------
/assets/marscode/marscode.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/aigem/videos/f43eef97ec57be19e91d728d99fc3dbe433a4aac/assets/marscode/marscode.jpg
--------------------------------------------------------------------------------
/assets/marscode/相信你也会爱这个云IDE 国际版Marscode 开通32核CPU及64GRAM来不间断运行 - en.srt:
--------------------------------------------------------------------------------
1 | 1
2 | 00:00:00,166 --> 00:00:03,066
3 | 大家好今天给大家推荐一款
4 |
5 | 2
6 | 00:00:03,466 --> 00:00:06,366
7 | 非常值得一用的云IDE
8 |
9 | 3
10 | 00:00:07,066 --> 00:00:09,333
11 | 豆包旗下的MarsCode
12 |
13 | 4
14 | 00:00:09,366 --> 00:00:12,500
15 | 有人说是云端版的Cursor
16 |
17 | 5
18 | 00:00:12,533 --> 00:00:13,500
19 | 但是呢
20 |
21 | 6
22 | 00:00:13,700 --> 00:00:17,633
23 | AI功能生成功能肯定没有Cursor这么强
24 |
25 | 7
26 | 00:00:18,100 --> 00:00:21,133
27 | 那为什么我们还推荐它呢
28 |
29 | 8
30 | 00:00:21,166 --> 00:00:23,566
31 | 因为它开箱即用
32 |
33 | 9
34 | 00:00:23,566 --> 00:00:25,700
35 | 打开网页直接使用
36 |
37 | 10
38 | 00:00:25,866 --> 00:00:29,633
39 | 首先他文件都是持久化的
40 |
41 | 11
42 | 00:00:30,033 --> 00:00:32,500
43 | 因为他给了一定的空间给你
44 |
45 | 12
46 | 00:00:32,500 --> 00:00:33,133
47 | 之后呢
48 |
49 | 13
50 | 00:00:33,133 --> 00:00:37,300
51 | 他运行这一个云IDE是没有时间限制的
52 |
53 | 14
54 | 00:00:37,433 --> 00:00:41,166
55 | 他还有另外一个版本就是国际版的
56 |
57 | 15
58 | 00:00:41,533 --> 00:00:45,033
59 | 相对国内版他不需要提供手机号
60 |
61 | 16
62 | 00:00:45,033 --> 00:00:48,466
63 | 只需一个邮箱就能直接注册使用
64 |
65 | 17
66 | 00:00:48,866 --> 00:00:53,333
67 | 加上他的网络环境非常的国际化
68 |
69 | 18
70 | 00:00:53,733 --> 00:01:00,100
71 | 所以呢编程写项目运作起来非常顺滑
72 |
73 | 19
74 | 00:01:00,166 --> 00:01:03,966
75 | 所以推荐大家使用国际版的
76 |
77 | 20
78 | 00:01:04,366 --> 00:01:06,500
79 | 国际版的在国内打开
80 |
81 | 21
82 | 00:01:06,500 --> 00:01:08,900
83 | 会自动跳转到国内版本
84 |
85 | 22
86 | 00:01:08,900 --> 00:01:12,666
87 | 所以呢大家网络需要好一点才能使用
88 |
89 | 23
90 | 00:01:12,733 --> 00:01:16,300
91 | 之后我用国际版的来展示一下
92 |
93 | 24
94 | 00:01:16,300 --> 00:01:17,366
95 | 如何开通
96 |
97 | 25
98 | 00:01:17,366 --> 00:01:22,266
99 | 炸裂的64G内存和32核CPU的服务器
100 |
101 | 26
102 | 00:01:22,266 --> 00:01:24,100
103 | 给大家免费使用
104 |
105 | 27
106 | 00:01:24,166 --> 00:01:27,933
107 | 还是24小时无间断使用的那种
108 |
109 | 28
110 | 00:01:27,933 --> 00:01:29,800
111 | 好了我们正式开始
112 |
113 | 29
114 | 00:01:30,266 --> 00:01:33,033
115 | 我们新建一个项目
116 |
117 | 30
118 | 00:01:33,333 --> 00:01:36,600
119 | 之后我们选择比较熟悉的Python
120 |
121 | 31
122 | 00:01:37,400 --> 00:01:38,633
123 | 创建项目
124 |
125 | 32
126 | 00:01:40,466 --> 00:01:44,133
127 | 右手边的AI功能我们基本都不怎么用
128 |
129 | 33
130 | 00:01:45,033 --> 00:01:46,266
131 | 因为有点鸡肋
132 |
133 | 34
134 | 00:01:46,533 --> 00:01:48,733
135 | 看到它部署完成
136 |
137 | 35
138 | 00:01:48,733 --> 00:01:50,366
139 | 我们来测试一下
140 |
141 | 36
142 | 00:01:50,366 --> 00:01:53,733
143 | 他自带的示范程序
144 |
145 | 37
146 | 00:01:53,733 --> 00:01:55,266
147 | 我们来部署一下
148 |
149 | 38
150 | 00:01:59,766 --> 00:02:02,000
151 | 好了我们看到他部署完成了
152 |
153 | 39
154 | 00:02:02,000 --> 00:02:05,266
155 | 我们在浏览器中打开来看一下
156 |
157 | 40
158 | 00:02:05,766 --> 00:02:07,533
159 | Hello World 好了没问题
160 |
161 | 41
162 | 00:02:08,333 --> 00:02:10,033
163 | 我们输入这一行
164 |
165 | 42
166 | 00:02:10,800 --> 00:02:11,600
167 | 命令 (sudo su)
168 |
169 | 43
170 | 00:02:14,166 --> 00:02:15,600
171 | 来到root权限
172 |
173 | 44
174 | 00:02:15,833 --> 00:02:18,733
175 | 我们测试一下
176 |
177 | 45
178 | 00:02:20,933 --> 00:02:25,233
179 | 看到这一个就证明他没有使用APT
180 |
181 | 46
182 | 00:02:25,733 --> 00:02:28,133
183 | 就不能自由安装各种软件
184 |
185 | 47
186 | 00:02:28,133 --> 00:02:32,466
187 | 我们现在只需要输入这一行代码
188 |
189 | 48
190 | 00:02:33,200 --> 00:02:34,066
191 | 运行它
192 |
193 | 49
194 | 00:02:35,866 --> 00:02:38,133
195 | 嗯看到他没有运行
196 |
197 | 50
198 | 00:02:38,200 --> 00:02:40,333
199 | 他已经生成了相关文件( su.sh )
200 |
201 | 51
202 | 00:02:41,633 --> 00:02:43,800
203 | 好了我们来运行一下( bash su.sh )
204 |
205 | 52
206 | 00:02:46,600 --> 00:02:48,833
207 | 运行这一个命令之后
208 |
209 | 53
210 | 00:02:50,166 --> 00:02:52,133
211 | 他就帮我们获取到 (proot)
212 |
213 | 54
214 | 00:02:53,733 --> 00:02:58,766
215 | 一个可以自由安装软件的一个后台
216 |
217 | 55
218 | 00:03:00,333 --> 00:03:02,000
219 | 好我们再来看一下
220 |
221 | 56
222 | 00:03:05,433 --> 00:03:08,400
223 | 现在已经可以使用APT命令了
224 |
225 | 57
226 | 00:03:09,333 --> 00:03:11,166
227 | 我们来安装一个
228 |
229 | 58
230 | 00:03:14,333 --> 00:03:17,033
231 | 我们来安装Neofetch软件
232 |
233 | 59
234 | 00:03:17,766 --> 00:03:18,566
235 | 打开一下( neofetch )
236 |
237 | 60
238 | 00:03:18,566 --> 00:03:22,733
239 | 查看这个服务器的相关的硬件配置
240 |
241 | 61
242 | 00:03:24,533 --> 00:03:25,466
243 | 安装完成
244 |
245 | 62
246 | 00:03:25,466 --> 00:03:27,366
247 | 我们来运行一下
248 |
249 | 63
250 | 00:03:30,033 --> 00:03:31,866
251 | 好大家可以看到这里
252 |
253 | 64
254 | 00:03:32,866 --> 00:03:33,966
255 | 32核CPU
256 |
257 | 65
258 | 00:03:35,333 --> 00:03:39,566
259 | 和64G内存
260 |
261 | 66
262 | 00:03:40,000 --> 00:03:42,200
263 | 运行Htop来看一下
264 |
265 | 67
266 | 00:03:42,866 --> 00:03:47,166
267 | 32核的一个CPU核心数
268 |
269 | 68
270 | 00:03:48,766 --> 00:03:50,866
271 | 好了本期视频就到这里了
272 |
273 | 69
274 | 00:03:50,866 --> 00:03:52,200
275 | 请关注我
276 |
277 | 70
278 | 00:03:52,400 --> 00:03:53,200
279 | 之后
280 |
281 | 71
282 | 00:03:53,400 --> 00:03:54,766
283 | 再来教大家
284 |
285 | 72
286 | 00:03:54,766 --> 00:03:58,166
287 | 如何将这一个在线服务
288 |
289 | 73
290 | 00:03:58,166 --> 00:04:01,233
291 | 进行24小时的保活(保持在线)
292 |
293 | 74
294 | 00:04:01,733 --> 00:04:03,266
295 | 之后呢就在上面
296 |
297 | 75
298 | 00:04:03,266 --> 00:04:04,766
299 | 就可以不间断的
300 |
301 | 76
302 | 00:04:05,733 --> 00:04:08,033
303 | 使用自己部署的服务了
304 |
305 | 77
306 | 00:04:08,200 --> 00:04:10,466
307 | 24小时不间断
308 |
309 | 78
310 | 00:04:11,333 --> 00:04:12,133
311 | 好了
312 |
313 | 79
314 | 00:04:12,733 --> 00:04:13,266
315 | 再见
316 |
317 | 80
318 | 00:04:13,266 --> 00:04:15,166
319 | 我们下期视频再见
320 |
321 |
--------------------------------------------------------------------------------
/assets/marscode/相信你也会爱这个云IDE 国际版Marscode 开通32核CPU及64GRAM来不间断运行.srt:
--------------------------------------------------------------------------------
1 | 1
2 | 00:00:00,166 --> 00:00:03,066
3 | 大家好今天给大家推荐一款
4 |
5 | 2
6 | 00:00:03,466 --> 00:00:06,366
7 | 非常值得一用的云IDE
8 |
9 | 3
10 | 00:00:07,066 --> 00:00:09,333
11 | 豆包旗下的MarsCode
12 |
13 | 4
14 | 00:00:09,366 --> 00:00:12,500
15 | 有人说是云端版的Cursor
16 |
17 | 5
18 | 00:00:12,533 --> 00:00:13,500
19 | 但是呢
20 |
21 | 6
22 | 00:00:13,700 --> 00:00:17,633
23 | AI功能生成功能肯定没有Cursor这么强
24 |
25 | 7
26 | 00:00:18,100 --> 00:00:21,133
27 | 那为什么我们还推荐它呢
28 |
29 | 8
30 | 00:00:21,166 --> 00:00:23,566
31 | 因为它开箱即用
32 |
33 | 9
34 | 00:00:23,566 --> 00:00:25,700
35 | 打开网页直接使用
36 |
37 | 10
38 | 00:00:25,866 --> 00:00:29,633
39 | 首先他文件都是持久化的
40 |
41 | 11
42 | 00:00:30,033 --> 00:00:32,500
43 | 因为他给了一定的空间给你
44 |
45 | 12
46 | 00:00:32,500 --> 00:00:33,133
47 | 之后呢
48 |
49 | 13
50 | 00:00:33,133 --> 00:00:37,300
51 | 他运行这一个云IDE是没有时间限制的
52 |
53 | 14
54 | 00:00:37,433 --> 00:00:41,166
55 | 他还有另外一个版本就是国际版的
56 |
57 | 15
58 | 00:00:41,533 --> 00:00:45,033
59 | 相对国内版他不需要提供手机号
60 |
61 | 16
62 | 00:00:45,033 --> 00:00:48,466
63 | 只需一个邮箱就能直接注册使用
64 |
65 | 17
66 | 00:00:48,866 --> 00:00:53,333
67 | 加上他的网络环境非常的国际化
68 |
69 | 18
70 | 00:00:53,733 --> 00:01:00,100
71 | 所以呢编程写项目运作起来非常顺滑
72 |
73 | 19
74 | 00:01:00,166 --> 00:01:03,966
75 | 所以推荐大家使用国际版的
76 |
77 | 20
78 | 00:01:04,366 --> 00:01:06,500
79 | 国际版的在国内打开
80 |
81 | 21
82 | 00:01:06,500 --> 00:01:08,900
83 | 会自动跳转到国内版本
84 |
85 | 22
86 | 00:01:08,900 --> 00:01:12,666
87 | 所以呢大家网络需要好一点才能使用
88 |
89 | 23
90 | 00:01:12,733 --> 00:01:16,300
91 | 之后我用国际版的来展示一下
92 |
93 | 24
94 | 00:01:16,300 --> 00:01:17,366
95 | 如何开通
96 |
97 | 25
98 | 00:01:17,366 --> 00:01:22,266
99 | 炸裂的64G内存和32核CPU的服务器
100 |
101 | 26
102 | 00:01:22,266 --> 00:01:24,100
103 | 给大家免费使用
104 |
105 | 27
106 | 00:01:24,166 --> 00:01:27,933
107 | 还是24小时无间断使用的那种
108 |
109 | 28
110 | 00:01:27,933 --> 00:01:29,800
111 | 好了我们正式开始
112 |
113 | 29
114 | 00:01:30,266 --> 00:01:33,033
115 | 我们新建一个项目
116 |
117 | 30
118 | 00:01:33,333 --> 00:01:36,600
119 | 之后我们选择比较熟悉的Python
120 |
121 | 31
122 | 00:01:37,400 --> 00:01:38,633
123 | 创建项目
124 |
125 | 32
126 | 00:01:40,466 --> 00:01:44,133
127 | 右手边的AI功能我们基本都不怎么用
128 |
129 | 33
130 | 00:01:45,033 --> 00:01:46,266
131 | 因为有点鸡肋
132 |
133 | 34
134 | 00:01:46,533 --> 00:01:48,733
135 | 看到它部署完成
136 |
137 | 35
138 | 00:01:48,733 --> 00:01:50,366
139 | 我们来测试一下
140 |
141 | 36
142 | 00:01:50,366 --> 00:01:53,733
143 | 他自带的示范程序
144 |
145 | 37
146 | 00:01:53,733 --> 00:01:55,266
147 | 我们来部署一下
148 |
149 | 38
150 | 00:01:59,766 --> 00:02:02,000
151 | 好了我们看到他部署完成了
152 |
153 | 39
154 | 00:02:02,000 --> 00:02:05,266
155 | 我们在浏览器中打开来看一下
156 |
157 | 40
158 | 00:02:05,766 --> 00:02:07,533
159 | Hello World 好了没问题
160 |
161 | 41
162 | 00:02:08,333 --> 00:02:10,033
163 | 我们输入这一行
164 |
165 | 42
166 | 00:02:10,800 --> 00:02:11,600
167 | 命令 (sudo su)
168 |
169 | 43
170 | 00:02:14,166 --> 00:02:15,600
171 | 来到root权限
172 |
173 | 44
174 | 00:02:15,833 --> 00:02:18,733
175 | 我们测试一下
176 |
177 | 45
178 | 00:02:20,933 --> 00:02:25,233
179 | 看到这一个就证明他没有使用APT
180 |
181 | 46
182 | 00:02:25,733 --> 00:02:28,133
183 | 就不能自由安装各种软件
184 |
185 | 47
186 | 00:02:28,133 --> 00:02:32,466
187 | 我们现在只需要输入这一行代码
188 |
189 | 48
190 | 00:02:33,200 --> 00:02:34,066
191 | 运行它
192 |
193 | 49
194 | 00:02:35,866 --> 00:02:38,133
195 | 嗯看到他没有运行
196 |
197 | 50
198 | 00:02:38,200 --> 00:02:40,333
199 | 他已经生成了相关文件( su.sh )
200 |
201 | 51
202 | 00:02:41,633 --> 00:02:43,800
203 | 好了我们来运行一下( bash su.sh )
204 |
205 | 52
206 | 00:02:46,600 --> 00:02:48,833
207 | 运行这一个命令之后
208 |
209 | 53
210 | 00:02:50,166 --> 00:02:52,133
211 | 他就帮我们获取到 (proot)
212 |
213 | 54
214 | 00:02:53,733 --> 00:02:58,766
215 | 一个可以自由安装软件的一个后台
216 |
217 | 55
218 | 00:03:00,333 --> 00:03:02,000
219 | 好我们再来看一下
220 |
221 | 56
222 | 00:03:05,433 --> 00:03:08,400
223 | 现在已经可以使用APT命令了
224 |
225 | 57
226 | 00:03:09,333 --> 00:03:11,166
227 | 我们来安装一个
228 |
229 | 58
230 | 00:03:14,333 --> 00:03:17,033
231 | 我们来安装Neofetch软件
232 |
233 | 59
234 | 00:03:17,766 --> 00:03:18,566
235 | 打开一下( neofetch )
236 |
237 | 60
238 | 00:03:18,566 --> 00:03:22,733
239 | 查看这个服务器的相关的硬件配置
240 |
241 | 61
242 | 00:03:24,533 --> 00:03:25,466
243 | 安装完成
244 |
245 | 62
246 | 00:03:25,466 --> 00:03:27,366
247 | 我们来运行一下
248 |
249 | 63
250 | 00:03:30,033 --> 00:03:31,866
251 | 好大家可以看到这里
252 |
253 | 64
254 | 00:03:32,866 --> 00:03:33,966
255 | 32核CPU
256 |
257 | 65
258 | 00:03:35,333 --> 00:03:39,566
259 | 和64G内存
260 |
261 | 66
262 | 00:03:40,000 --> 00:03:42,200
263 | 运行Htop来看一下
264 |
265 | 67
266 | 00:03:42,866 --> 00:03:47,166
267 | 32核的一个CPU核心数
268 |
269 | 68
270 | 00:03:48,766 --> 00:03:50,866
271 | 好了本期视频就到这里了
272 |
273 | 69
274 | 00:03:50,866 --> 00:03:52,200
275 | 请关注我
276 |
277 | 70
278 | 00:03:52,400 --> 00:03:53,200
279 | 之后
280 |
281 | 71
282 | 00:03:53,400 --> 00:03:54,766
283 | 再来教大家
284 |
285 | 72
286 | 00:03:54,766 --> 00:03:58,166
287 | 如何将这一个在线服务
288 |
289 | 73
290 | 00:03:58,166 --> 00:04:01,233
291 | 进行24小时的保活(保持在线)
292 |
293 | 74
294 | 00:04:01,733 --> 00:04:03,266
295 | 之后呢就在上面
296 |
297 | 75
298 | 00:04:03,266 --> 00:04:04,766
299 | 就可以不间断的
300 |
301 | 76
302 | 00:04:05,733 --> 00:04:08,033
303 | 使用自己部署的服务了
304 |
305 | 77
306 | 00:04:08,200 --> 00:04:10,466
307 | 24小时不间断
308 |
309 | 78
310 | 00:04:11,333 --> 00:04:12,133
311 | 好了
312 |
313 | 79
314 | 00:04:12,733 --> 00:04:13,266
315 | 再见
316 |
317 | 80
318 | 00:04:13,266 --> 00:04:15,166
319 | 我们下期视频再见
320 |
321 |
--------------------------------------------------------------------------------
/assets/n8n-fanyi-api/api.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/aigem/videos/f43eef97ec57be19e91d728d99fc3dbe433a4aac/assets/n8n-fanyi-api/api.png
--------------------------------------------------------------------------------
/assets/n8n-fanyi-api/api1.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/aigem/videos/f43eef97ec57be19e91d728d99fc3dbe433a4aac/assets/n8n-fanyi-api/api1.png
--------------------------------------------------------------------------------
/assets/n8n-fanyi-api/api2.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/aigem/videos/f43eef97ec57be19e91d728d99fc3dbe433a4aac/assets/n8n-fanyi-api/api2.png
--------------------------------------------------------------------------------
/assets/n8n-fanyi-api/n8n.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/aigem/videos/f43eef97ec57be19e91d728d99fc3dbe433a4aac/assets/n8n-fanyi-api/n8n.png
--------------------------------------------------------------------------------
/assets/n8n/workflow/2025.3.28.demo.json:
--------------------------------------------------------------------------------
1 | {
2 | "name": "My workflow OK",
3 | "nodes": [
4 | {
5 | "parameters": {},
6 | "type": "n8n-nodes-base.manualTrigger",
7 | "typeVersion": 1,
8 | "position": [
9 | -280,
10 | 20
11 | ],
12 | "id": "740218c6-946a-498b-aa48-628e84df4fc9",
13 | "name": "When clicking 'Test workflow'"
14 | },
15 | {
16 | "parameters": {
17 | "method": "POST",
18 | "url": "https://api.siliconflow.cn/v1/images/generations",
19 | "sendHeaders": true,
20 | "headerParameters": {
21 | "parameters": [
22 | {
23 | "name": "Authorization",
24 | "value": "Bearer sk-bvigddkdomxswrssufflrzgviikwhmmgdlfvblvxvibfvcwm"
25 | }
26 | ]
27 | },
28 | "sendBody": true,
29 | "bodyParameters": {
30 | "parameters": [
31 | {
32 | "name": "model",
33 | "value": "Kwai-Kolors/Kolors"
34 | },
35 | {
36 | "name": "prompt",
37 | "value": "={{ $json.text }}"
38 | },
39 | {
40 | "name": "image_size",
41 | "value": "1024x1024"
42 | },
43 | {
44 | "name": "batch_size",
45 | "value": "1"
46 | },
47 | {
48 | "name": "num_inference_steps",
49 | "value": "20"
50 | },
51 | {
52 | "name": "guidance_scale",
53 | "value": "7.5"
54 | }
55 | ]
56 | },
57 | "options": {}
58 | },
59 | "type": "n8n-nodes-base.httpRequest",
60 | "typeVersion": 4.2,
61 | "position": [
62 | 1240,
63 | 640
64 | ],
65 | "id": "f23faffb-bb86-423b-909d-888052e647bc",
66 | "name": "硅基kolors生图"
67 | },
68 | {
69 | "parameters": {
70 | "method": "POST",
71 | "url": "https://ttsapi.site/v1/audio/speech",
72 | "sendBody": true,
73 | "bodyParameters": {
74 | "parameters": [
75 | {
76 | "name": "input",
77 | "value": "={{ $('伍老师回答问题学生问题').item.json.text }}"
78 | },
79 | {
80 | "name": "voice",
81 | "value": "alloy"
82 | },
83 | {
84 | "name": "instructions",
85 | "value": "=普通话发单要准确清晰,语速按1.2倍速。\n{{ $json.text }}"
86 | }
87 | ]
88 | },
89 | "options": {}
90 | },
91 | "type": "n8n-nodes-base.httpRequest",
92 | "typeVersion": 4.2,
93 | "position": [
94 | 1240,
95 | 20
96 | ],
97 | "id": "64b39629-b7a8-4898-aa82-ebc3069e7cf8",
98 | "name": "openai-tts"
99 | },
100 | {
101 | "parameters": {
102 | "promptType": "define",
103 | "text": "={{ $json['学生问题'] }}",
104 | "messages": {
105 | "messageValues": [
106 | {
107 | "message": "你是资深的英语老师。对学生提出的问题进行英语方面的回答。简洁并突出重点,解决学习的核心需求、主要问题。如果回答的问题可以举例或可以造句或有与之相对应的名言名句,请加上中英两方面的举例。尽量精简,不要超80字"
108 | }
109 | ]
110 | }
111 | },
112 | "type": "@n8n/n8n-nodes-langchain.chainLlm",
113 | "typeVersion": 1.6,
114 | "position": [
115 | 140,
116 | 20
117 | ],
118 | "id": "9a7048a7-267d-415b-a8b1-bea3d4ae238a",
119 | "name": "伍老师回答问题学生问题"
120 | },
121 | {
122 | "parameters": {
123 | "promptType": "define",
124 | "text": "={{ $('伍老师回答问题学生问题').item.json.text }}",
125 | "messages": {
126 | "messageValues": [
127 | {
128 | "message": "根据内容及生活经验,参考以下格式,生成与内容想匹配的语音的语气语调及语速等的提示词。参考内容:Voice Affect: Calm, composed, and reassuring. Competent and in control, instilling trust. Tone: Sincere, empathetic, with genuine concern for the customer and understanding of the situation. Pacing: Slower during the apology to allow for clarity and processing. Faster when offering solutions to signal action and resolution. Emotions: Calm reassurance, empathy, and gratitude. Pronunciation: Clear, precise: Ensures clarity, especially with key details. Focus on key words like \"refund\" and \"patience.\" Pauses: Before and after the apology to give space for processing the apology."
129 | }
130 | ]
131 | }
132 | },
133 | "type": "@n8n/n8n-nodes-langchain.chainLlm",
134 | "typeVersion": 1.6,
135 | "position": [
136 | 720,
137 | 20
138 | ],
139 | "id": "8fc29a20-9bea-4f76-a6ad-9a6b54d95cb9",
140 | "name": "语气生成专员"
141 | },
142 | {
143 | "parameters": {
144 | "model": {
145 | "__rl": true,
146 | "value": "deepseek/deepseek-v3-0324",
147 | "mode": "list",
148 | "cachedResultName": "deepseek/deepseek-v3-0324"
149 | },
150 | "options": {
151 | "maxTokens": 8192,
152 | "temperature": 0.8
153 | }
154 | },
155 | "type": "@n8n/n8n-nodes-langchain.lmChatOpenAi",
156 | "typeVersion": 1.2,
157 | "position": [
158 | -40,
159 | 680
160 | ],
161 | "id": "1791c44f-b3ab-461e-b810-95a6d396c05d",
162 | "name": "AI Chat Model1",
163 | "credentials": {
164 | "openAiApi": {
165 | "id": "cJ3ORvWrXjPvJqAk",
166 | "name": "novita.ai"
167 | }
168 | }
169 | },
170 | {
171 | "parameters": {
172 | "promptType": "define",
173 | "text": "={{ $json['学生问题'] }}",
174 | "messages": {
175 | "messageValues": [
176 | {
177 | "message": "你是资深的英语老师。对学生提出的问题进行英语方面的回答。简洁并突出重点,解决学习的核心需求、主要问题。如果回答的问题可以举例或可以造句或有与之相对应的名言名句,请加上中英两方面的举例。如果是故事,只输出英文故事的内容。内容不要超100字"
178 | }
179 | ]
180 | }
181 | },
182 | "type": "@n8n/n8n-nodes-langchain.chainLlm",
183 | "typeVersion": 1.6,
184 | "position": [
185 | 140,
186 | 340
187 | ],
188 | "id": "21551c33-2cd4-48f4-afe3-7a31f524f725",
189 | "name": "伍老师回答问题学生问题1"
190 | },
191 | {
192 | "parameters": {
193 | "promptType": "define",
194 | "text": "={{ $('伍老师回答问题学生问题1').item.json.text }}",
195 | "messages": {
196 | "messageValues": [
197 | {
198 | "message": "根据内容及生活经验,参考以下格式,生成与内容想匹配的语音的语气语调及语速等的提示词。参考内容:Voice Affect: Calm, composed, and reassuring. Competent and in control, instilling trust. Tone: Sincere, empathetic, with genuine concern for the customer and understanding of the situation. Pacing: Slower during the apology to allow for clarity and processing. Faster when offering solutions to signal action and resolution. Emotions: Calm reassurance, empathy, and gratitude. Pronunciation: Clear, precise: Ensures clarity, especially with key details. Focus on key words like \"refund\" and \"patience.\" Pauses: Before and after the apology to give space for processing the apology."
199 | }
200 | ]
201 | }
202 | },
203 | "type": "@n8n/n8n-nodes-langchain.chainLlm",
204 | "typeVersion": 1.6,
205 | "position": [
206 | 720,
207 | 340
208 | ],
209 | "id": "207e5be1-31dc-4b80-96bb-e82e8365df63",
210 | "name": "语气生成专员1"
211 | },
212 | {
213 | "parameters": {
214 | "assignments": {
215 | "assignments": [
216 | {
217 | "id": "c68fa921-d606-4427-9a5c-eb1964734791",
218 | "name": "学生问题",
219 | "value": "伍老师你好,请给我请个小故事,想听",
220 | "type": "string"
221 | }
222 | ]
223 | },
224 | "options": {}
225 | },
226 | "type": "n8n-nodes-base.set",
227 | "typeVersion": 3.4,
228 | "position": [
229 | -100,
230 | 340
231 | ],
232 | "id": "c3218bdc-baf3-4a78-a8f3-aad79213ed11",
233 | "name": "学生问题1"
234 | },
235 | {
236 | "parameters": {
237 | "assignments": {
238 | "assignments": [
239 | {
240 | "id": "c68fa921-d606-4427-9a5c-eb1964734791",
241 | "name": "学生问题",
242 | "value": "伍老师你好,这个单词workflow是什么意思?",
243 | "type": "string"
244 | }
245 | ]
246 | },
247 | "options": {}
248 | },
249 | "type": "n8n-nodes-base.set",
250 | "typeVersion": 3.4,
251 | "position": [
252 | -100,
253 | 20
254 | ],
255 | "id": "7ae81ea4-d695-45a8-8926-ec40f46b1b28",
256 | "name": "学生问题"
257 | },
258 | {
259 | "parameters": {
260 | "promptType": "define",
261 | "text": "={{ $json['伍老师回答问题学生问题1'] }}",
262 | "messages": {
263 | "messageValues": [
264 | {
265 | "message": "根据故事来生成具象的主要物品或人物等的图片生成的提示词。"
266 | }
267 | ]
268 | }
269 | },
270 | "type": "@n8n/n8n-nodes-langchain.chainLlm",
271 | "typeVersion": 1.6,
272 | "position": [
273 | 740,
274 | 640
275 | ],
276 | "id": "d3a6b3a8-7cb9-43a9-b348-e5ad1e55987a",
277 | "name": "图片生成专员"
278 | },
279 | {
280 | "parameters": {
281 | "method": "POST",
282 | "url": "https://ttsapi.site/v1/audio/speech",
283 | "sendBody": true,
284 | "bodyParameters": {
285 | "parameters": [
286 | {
287 | "name": "input",
288 | "value": "={{ $('伍老师回答问题学生问题1').item.json.text }}"
289 | },
290 | {
291 | "name": "voice",
292 | "value": "alloy"
293 | },
294 | {
295 | "name": "instructions",
296 | "value": "=普通话发单要准确清晰,语速按1.2倍速。\n{{ $json.text }}"
297 | }
298 | ]
299 | },
300 | "options": {}
301 | },
302 | "type": "n8n-nodes-base.httpRequest",
303 | "typeVersion": 4.2,
304 | "position": [
305 | 1240,
306 | 340
307 | ],
308 | "id": "ea8f3eff-9212-45d5-8f30-5e2b812426f0",
309 | "name": "openai-tts1"
310 | },
311 | {
312 | "parameters": {
313 | "numberInputs": 3
314 | },
315 | "type": "n8n-nodes-base.merge",
316 | "typeVersion": 3.1,
317 | "position": [
318 | 2520,
319 | 420
320 | ],
321 | "id": "6ffae947-c125-4f04-9571-02cfbc316b6f",
322 | "name": "Merge"
323 | },
324 | {
325 | "parameters": {
326 | "operation": "binaryToPropery",
327 | "destinationKey": "tts-data",
328 | "options": {}
329 | },
330 | "type": "n8n-nodes-base.extractFromFile",
331 | "typeVersion": 1,
332 | "position": [
333 | 1500,
334 | 20
335 | ],
336 | "id": "32521b79-5301-4e19-9ca8-5c5ddffb05ef",
337 | "name": "转为base64"
338 | },
339 | {
340 | "parameters": {
341 | "operation": "binaryToPropery",
342 | "destinationKey": "tts-data1",
343 | "options": {}
344 | },
345 | "type": "n8n-nodes-base.extractFromFile",
346 | "typeVersion": 1,
347 | "position": [
348 | 1500,
349 | 340
350 | ],
351 | "id": "1f12b08e-efdc-4b0f-97db-fd71f9dfc303",
352 | "name": "转为base64-1"
353 | },
354 | {
355 | "parameters": {
356 | "assignments": {
357 | "assignments": [
358 | {
359 | "id": "2dcb379b-61f0-4e31-9893-93619f2aca62",
360 | "name": "学生问题",
361 | "value": "={{ $('学生问题').item.json['学生问题'] }}",
362 | "type": "string"
363 | },
364 | {
365 | "id": "b24f506a-5d39-4bbd-a862-1da51f6cf0b9",
366 | "name": "伍老师回答问题学生问题",
367 | "value": "={{ $json.text }}",
368 | "type": "string"
369 | }
370 | ]
371 | },
372 | "options": {}
373 | },
374 | "type": "n8n-nodes-base.set",
375 | "typeVersion": 3.4,
376 | "position": [
377 | 520,
378 | 20
379 | ],
380 | "id": "6fa698d5-a497-42ff-bd5a-a64a2c979420",
381 | "name": "保存问题和回答1"
382 | },
383 | {
384 | "parameters": {
385 | "assignments": {
386 | "assignments": [
387 | {
388 | "id": "875bf4b1-6251-4728-b0ad-74bc24d82156",
389 | "name": "=学生问题",
390 | "value": "={{ $('学生问题').item.json['学生问题'] }}",
391 | "type": "string"
392 | },
393 | {
394 | "id": "9a19ca39-951a-4931-a1a5-f61144646da0",
395 | "name": "伍老师回答问题学生问题1",
396 | "value": "={{ $json.text }}",
397 | "type": "string"
398 | }
399 | ]
400 | },
401 | "options": {}
402 | },
403 | "type": "n8n-nodes-base.set",
404 | "typeVersion": 3.4,
405 | "position": [
406 | 520,
407 | 340
408 | ],
409 | "id": "e1648e30-ee7b-4110-9491-74daac72eed3",
410 | "name": "保存问题和回答2"
411 | },
412 | {
413 | "parameters": {
414 | "functionCode": "// 获取合并后的数据\nconst ttsData1 = items[0].json[\"tts-data\"];\nconst ttsData2 = items[1].json[\"tts-data1\"];\nconst imageData = items[2].json;\n\n// 尝试获取问题和回答\nlet question1 = \"伍老师你好,这个单词workflow是什么意思?\";\nlet question2 = \"伍老师你好,请给我请个小故事,想听\";\n\nlet answer1 = \"\";\nlet answer2 = \"\";\n\n// 尝试从pairedItem获取相关信息\nif (items[0].pairedItem && items[0].pairedItem.item !== undefined) {\n try {\n // 这里需要根据实际工作流进行调整\n if ($('保存问题和回答1') && $('保存问题和回答1').item && $('保存问题和回答1').item.json) {\n answer1 = $('保存问题和回答1').item.json.answer || \"\";\n }\n } catch (e) {\n // 无法获取数据时保持默认值\n }\n}\n\nif (items[1].pairedItem && items[1].pairedItem.item !== undefined) {\n try {\n // 这里需要根据实际工作流进行调整\n if ($('保存问题和回答2') && $('保存问题和回答2').item && $('保存问题和回答2').item.json) {\n answer2 = $('保存问题和回答2').item.json.answer || \"\";\n }\n } catch (e) {\n // 无法获取数据时保持默认值\n }\n}\n\n// 生成HTML\nconst html = `\n\n
\n \n \n 伍老师的英语课堂\n \n\n\n \n \n \n
\n
问题: ${question1}
\n
${answer1}
\n
\n
回答时间: ${new Date().toLocaleString('zh-CN')}
\n
\n \n
\n
问题: ${question2}
\n
${answer2}
\n
\n
回答时间: ${new Date().toLocaleString('zh-CN')}
\n
\n \n \n
\n\n`;\n\n// 返回生成的HTML\nreturn [{\n json: {\n html: html\n }\n}];"
415 | },
416 | "type": "n8n-nodes-base.function",
417 | "typeVersion": 1,
418 | "position": [
419 | 2740,
420 | 420
421 | ],
422 | "id": "ade0046a-7364-49f4-b6e2-43889d979bc6",
423 | "name": "生成HTML页面"
424 | },
425 | {
426 | "parameters": {
427 | "html": "={{ $json.html }}"
428 | },
429 | "name": "HTML预览",
430 | "type": "n8n-nodes-base.html",
431 | "typeVersion": 1,
432 | "position": [
433 | 2940,
434 | 420
435 | ],
436 | "id": "e0ca9f49-647c-4dff-b971-53e7bc480b33"
437 | },
438 | {
439 | "parameters": {
440 | "assignments": {
441 | "assignments": [
442 | {
443 | "id": "b5342261-fd86-4651-8c37-60f1c7c81d01",
444 | "name": "images[0].url",
445 | "value": "={{ $json.images[0].url }}",
446 | "type": "string"
447 | }
448 | ]
449 | },
450 | "options": {}
451 | },
452 | "type": "n8n-nodes-base.set",
453 | "typeVersion": 3.4,
454 | "position": [
455 | 1500,
456 | 640
457 | ],
458 | "id": "2f33d0f9-c700-4d7f-96f6-b7be7a198958",
459 | "name": "图片url"
460 | }
461 | ],
462 | "pinData": {
463 | "生成HTML页面": [
464 | {
465 | "json": {
466 | "html": ""
467 | }
468 | }
469 | ]
470 | },
471 | "connections": {
472 | "When clicking 'Test workflow'": {
473 | "main": [
474 | [
475 | {
476 | "node": "学生问题",
477 | "type": "main",
478 | "index": 0
479 | }
480 | ]
481 | ]
482 | },
483 | "硅基kolors生图": {
484 | "main": [
485 | [
486 | {
487 | "node": "图片url",
488 | "type": "main",
489 | "index": 0
490 | }
491 | ]
492 | ]
493 | },
494 | "openai-tts": {
495 | "main": [
496 | [
497 | {
498 | "node": "转为base64",
499 | "type": "main",
500 | "index": 0
501 | }
502 | ]
503 | ]
504 | },
505 | "伍老师回答问题学生问题": {
506 | "main": [
507 | [
508 | {
509 | "node": "保存问题和回答1",
510 | "type": "main",
511 | "index": 0
512 | }
513 | ]
514 | ]
515 | },
516 | "语气生成专员": {
517 | "main": [
518 | [
519 | {
520 | "node": "openai-tts",
521 | "type": "main",
522 | "index": 0
523 | }
524 | ]
525 | ]
526 | },
527 | "AI Chat Model1": {
528 | "ai_languageModel": [
529 | [
530 | {
531 | "node": "伍老师回答问题学生问题1",
532 | "type": "ai_languageModel",
533 | "index": 0
534 | },
535 | {
536 | "node": "语气生成专员1",
537 | "type": "ai_languageModel",
538 | "index": 0
539 | },
540 | {
541 | "node": "图片生成专员",
542 | "type": "ai_languageModel",
543 | "index": 0
544 | },
545 | {
546 | "node": "伍老师回答问题学生问题",
547 | "type": "ai_languageModel",
548 | "index": 0
549 | },
550 | {
551 | "node": "语气生成专员",
552 | "type": "ai_languageModel",
553 | "index": 0
554 | }
555 | ]
556 | ]
557 | },
558 | "伍老师回答问题学生问题1": {
559 | "main": [
560 | [
561 | {
562 | "node": "保存问题和回答2",
563 | "type": "main",
564 | "index": 0
565 | }
566 | ]
567 | ]
568 | },
569 | "语气生成专员1": {
570 | "main": [
571 | [
572 | {
573 | "node": "openai-tts1",
574 | "type": "main",
575 | "index": 0
576 | }
577 | ]
578 | ]
579 | },
580 | "学生问题1": {
581 | "main": [
582 | [
583 | {
584 | "node": "伍老师回答问题学生问题1",
585 | "type": "main",
586 | "index": 0
587 | }
588 | ]
589 | ]
590 | },
591 | "学生问题": {
592 | "main": [
593 | [
594 | {
595 | "node": "伍老师回答问题学生问题",
596 | "type": "main",
597 | "index": 0
598 | },
599 | {
600 | "node": "学生问题1",
601 | "type": "main",
602 | "index": 0
603 | }
604 | ]
605 | ]
606 | },
607 | "图片生成专员": {
608 | "main": [
609 | [
610 | {
611 | "node": "硅基kolors生图",
612 | "type": "main",
613 | "index": 0
614 | }
615 | ]
616 | ]
617 | },
618 | "openai-tts1": {
619 | "main": [
620 | [
621 | {
622 | "node": "转为base64-1",
623 | "type": "main",
624 | "index": 0
625 | }
626 | ]
627 | ]
628 | },
629 | "Merge": {
630 | "main": [
631 | [
632 | {
633 | "node": "生成HTML页面",
634 | "type": "main",
635 | "index": 0
636 | }
637 | ]
638 | ]
639 | },
640 | "转为base64": {
641 | "main": [
642 | [
643 | {
644 | "node": "Merge",
645 | "type": "main",
646 | "index": 0
647 | }
648 | ]
649 | ]
650 | },
651 | "转为base64-1": {
652 | "main": [
653 | [
654 | {
655 | "node": "Merge",
656 | "type": "main",
657 | "index": 1
658 | }
659 | ]
660 | ]
661 | },
662 | "保存问题和回答1": {
663 | "main": [
664 | [
665 | {
666 | "node": "语气生成专员",
667 | "type": "main",
668 | "index": 0
669 | }
670 | ]
671 | ]
672 | },
673 | "保存问题和回答2": {
674 | "main": [
675 | [
676 | {
677 | "node": "语气生成专员1",
678 | "type": "main",
679 | "index": 0
680 | },
681 | {
682 | "node": "图片生成专员",
683 | "type": "main",
684 | "index": 0
685 | }
686 | ]
687 | ]
688 | },
689 | "生成HTML页面": {
690 | "main": [
691 | [
692 | {
693 | "node": "HTML预览",
694 | "type": "main",
695 | "index": 0
696 | }
697 | ]
698 | ]
699 | },
700 | "HTML预览": {
701 | "main": [
702 | []
703 | ]
704 | },
705 | "图片url": {
706 | "main": [
707 | [
708 | {
709 | "node": "Merge",
710 | "type": "main",
711 | "index": 2
712 | }
713 | ]
714 | ]
715 | }
716 | },
717 | "active": false,
718 | "settings": {
719 | "executionOrder": "v1"
720 | },
721 | "versionId": "84f753e2-b00e-4576-b034-8f1345800b03",
722 | "meta": {
723 | "templateCredsSetupCompleted": true,
724 | "instanceId": "9501f726b92c2822c63011e56c8d3d259c3f2aafe02ce4257add10b45b11aebe"
725 | },
726 | "id": "ZqzhWGWW1tzKVV8i",
727 | "tags": []
728 | }
729 |
--------------------------------------------------------------------------------
/assets/others/15.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/aigem/videos/f43eef97ec57be19e91d728d99fc3dbe433a4aac/assets/others/15.jpg
--------------------------------------------------------------------------------
/assets/others/17.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/aigem/videos/f43eef97ec57be19e91d728d99fc3dbe433a4aac/assets/others/17.png
--------------------------------------------------------------------------------
/assets/others/23.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/aigem/videos/f43eef97ec57be19e91d728d99fc3dbe433a4aac/assets/others/23.png
--------------------------------------------------------------------------------
/assets/others/3.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/aigem/videos/f43eef97ec57be19e91d728d99fc3dbe433a4aac/assets/others/3.jpg
--------------------------------------------------------------------------------
/assets/others/32.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/aigem/videos/f43eef97ec57be19e91d728d99fc3dbe433a4aac/assets/others/32.png
--------------------------------------------------------------------------------
/assets/others/34.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/aigem/videos/f43eef97ec57be19e91d728d99fc3dbe433a4aac/assets/others/34.png
--------------------------------------------------------------------------------
/assets/others/35.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/aigem/videos/f43eef97ec57be19e91d728d99fc3dbe433a4aac/assets/others/35.jpg
--------------------------------------------------------------------------------
/assets/others/36-1.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/aigem/videos/f43eef97ec57be19e91d728d99fc3dbe433a4aac/assets/others/36-1.png
--------------------------------------------------------------------------------
/assets/others/36.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/aigem/videos/f43eef97ec57be19e91d728d99fc3dbe433a4aac/assets/others/36.jpg
--------------------------------------------------------------------------------
/assets/others/40.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/aigem/videos/f43eef97ec57be19e91d728d99fc3dbe433a4aac/assets/others/40.png
--------------------------------------------------------------------------------
/assets/others/41.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/aigem/videos/f43eef97ec57be19e91d728d99fc3dbe433a4aac/assets/others/41.png
--------------------------------------------------------------------------------
/assets/others/8.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/aigem/videos/f43eef97ec57be19e91d728d99fc3dbe433a4aac/assets/others/8.jpg
--------------------------------------------------------------------------------
/assets/others/9.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/aigem/videos/f43eef97ec57be19e91d728d99fc3dbe433a4aac/assets/others/9.png
--------------------------------------------------------------------------------
/md/1.md:
--------------------------------------------------------------------------------
1 | 
2 |
3 | 交流群:
4 |
5 | 企微 https://qr61.cn/oohivs/qRp62U6
6 |
7 | Discord https://discord.gg/3JWMgKQznF
8 |
9 | ## 本期视频内容要点
10 |
11 | 【沉浸式翻译自定义API部署指南+N8N更好可定制化翻译工作流:用N8N打造你的专属翻译神器-N8N教程[本期视频](https://www.bilibili.com/video/BV1PZy2YdErb/)】
12 |
13 | - 上期我们通过免费部署 DeepL 的 API 来实现沉浸式翻译,今天我们通过 n8n 来部署一个自定义的 API 来实现沉浸式翻译。
14 |
15 | 
16 |
17 | - N8N 通过 Webhook 来接收沉浸式翻译的请求,然后调用主流大语言模型来翻译文本,最后将翻译后的文本返回给沉浸式翻译。我们将详细讲解这个过程。
18 |
19 |
20 | ## 部署自定义 API
21 |
22 | 现在我们开始用 n8n 部署一个自定义的 API 来使用沉浸式翻译。
23 |
24 | 1、明确沉浸式翻译的流程
25 |
26 | - 沉浸式翻译向 自定义 API 发送请求及需要翻译的文本:此 API 是 N8N 的 Webhook
27 |
28 | - 翻译文本:N8N 收到请求后自动调用主流大语言模型来翻译文本,得到翻译后的文本
29 |
30 | - 返回翻译后的文本:N8N 将翻译后的文本返回给沉浸式翻译
31 |
32 | - 沉浸式翻译将翻译后的文本展示在界面上
33 |
34 | 2、自动义 API 的格式
35 |
36 | 参考官方说明:https://immersivetranslate.com/zh-Hans/docs/services/custom/
37 |
38 | 
39 |
40 |
41 | 
42 |
43 | 3、部署自定义 API【N8N自动化工作流】
44 |
45 | 查看详细的工作流 [n8n-fanyi-api.json](https://aigenai-aiflow.hf.space/workflow/eGgX67kijOCxwR8h)
46 |
47 | ### 实测
48 |
49 | 1、用沉浸式翻译测试自定义 API 连通性
50 |
51 | 2、用自定义 API 测试沉浸式翻译网页内容
52 |
53 | 3、用自定义 API 测试文件翻译
54 |
55 | ## 部署 n8n
56 |
57 | ### N8N 部署方式
58 |
59 | 1、可在本地部署【[官网](https://docs.n8n.io/hosting/)】
60 |
61 | 2、HuggingFace部署【免费】【推荐】【[视频教程](https://www.bilibili.com/video/BV1e6sVeEEhR/) [项目地址](https://github.com/aigem/n8n-serv00)】
62 |
63 | 3、Serv00部署【免费】【推荐】【[视频教程](https://www.bilibili.com/video/BV1PZy2YdErb/) [项目地址](https://github.com/aigem/n8n-serv00)】
64 |
65 | ### 相关链接:
66 |
67 | 免费部署 DeepL 的 API 来实现沉浸式翻译 【[视频教程](https://www.bilibili.com/video/BV1e9bceoECw/) [项目地址](https://github.com/aigem/deeplx-freeAPI-serv00)】
68 |
69 |
70 |
71 | 相关链接我会放到视频下方的。
72 |
73 | ### 相关资源
74 |
75 | n8n 工作流文件 [workflow.json](../src/n8n-fanyi-api.json/)
76 |
77 |
78 | ## 本期视频总结
79 |
80 | - 通过 n8n 部署一个自定义的 API 来实现沉浸式翻译,可以大大提高翻译的准确性及翻译的质量。
81 |
82 | - 通过 n8n 部署一个自定义的 API 来实现沉浸式翻译,可以实现特殊的翻译需求及翻译的个性化。
83 |
84 | - 所有软件、服务、LLM 模型、API 都是免费的,可以大大降低成本。
85 |
86 |
87 |
88 |
89 |
90 |
91 |
92 |
93 |
94 |
95 |
96 |
97 |
98 |
99 |
100 |
101 |
102 |
103 |
104 |
105 |
106 |
107 |
108 |
109 |
110 |
111 |
112 |
113 |
114 |
115 |
116 |
117 |
118 |
119 |
120 |
121 |
122 |
123 |
124 |
125 |
--------------------------------------------------------------------------------
/md/14.md:
--------------------------------------------------------------------------------
1 | 
2 | ## [关于Cloud Studio](https://ide.cloud.tencent.com/)
3 |
4 | 交流群:
5 |
6 | 企微 https://qr61.cn/oohivs/qRp62U6
7 |
8 | Discord https://discord.gg/3JWMgKQznF
9 |
10 | ### [视频教程]()
11 |
12 | ### 配置:
13 | 
14 |
15 | 
16 |
17 | [ cloud studio 网址 ](https://ide.cloud.tencent.com/) 注册白嫖吧。
18 |
19 | ## 每月免费50000分钟,相关 *使用技巧* 及 *Ngrok部署教程* 放在以下链接了,关注后取用吧。
20 |
21 | ### 【[BiLibili工房](https://gf.bilibili.com/item/detail/1107164073)】
22 | ### 【[获取更多脚本](https://gf.bilibili.com/item/detail/1107198073)】
23 |
24 |
25 |
26 |
27 | [良心云第一弹](https://www.bilibili.com/video/BV1BJmSYFE2a)
28 |
29 | [良心云第二弹](https://www.bilibili.com/video/BV1QEmrYZEtt/)
30 |
31 | [良心云第三弹](https://www.bilibili.com/video/BV1tmSFY1ERb/)【一键安装open webUI】
32 |
33 | [良心云第四弹](https://www.bilibili.com/video/BV1nMzNYHEd6/)【一键安装ComfyUI + Ngrok】
34 |
35 |
36 |
37 | ### 提示:Ngrok部署很简单的。
38 |
39 | ### [Cloud Studio 安装ollama及Qwen2.5 Coder 32B使用示范](https://www.bilibili.com/video/BV1VYUAYZEH7/)
40 |
41 |
42 |
43 | 
44 | 
45 | 
46 |
--------------------------------------------------------------------------------
/md/15.md:
--------------------------------------------------------------------------------
1 | ## 帮你们试了,要装!windsurf Ai编程神器 体验极好,与curso不相上下,免费使用,速上。实战你们感兴趣的程序,来体验一下吧
2 |
3 | 交流群:
4 |
5 | 企微 https://qr61.cn/oohivs/qRp62U6
6 |
7 | Discord https://discord.gg/3JWMgKQznF
8 |
9 | ### [视频教程](https://www.bilibili.com/video/BV1B3U7YuEcZ/)
10 |
11 | 
12 |
13 | ### Windsurf 相关
14 | 官网下载地址 https://codeium.com/windsurf
15 |
16 | ### 图片渲染程序
17 |
18 | #### [DEMO: https://1pics.edge1.us.kg/](https://1pics.edge1.us.kg/)
19 |
20 |
--------------------------------------------------------------------------------
/md/17.md:
--------------------------------------------------------------------------------
1 | ### 良心云Cloud studio免费GPU云主机上一键部署open webUI 脚本安装教程 | 一键安装运行 | 免费云主机 | 免费算力电脑 | 云端电脑
2 |
3 | 交流群:
4 |
5 | 企微 https://qr61.cn/oohivs/qRp62U6
6 |
7 | Discord https://discord.gg/3JWMgKQznF
8 |
9 | 【[视频教程](https://www.bilibili.com/video/BV1tmSFY1ERb/)】 【[获取一键脚本](https://gf.bilibili.com/item/detail/1107198073)】
10 |
11 | 
12 |
13 | ### 【[视频教程](https://www.bilibili.com/video/BV1tmSFY1ERb/)】 【[获取一键脚本](https://gf.bilibili.com/item/detail/1107198073)】
14 |
15 | [良心云第一弹](https://www.bilibili.com/video/BV1BJmSYFE2a)
16 |
17 | [良心云第二弹](https://www.bilibili.com/video/BV1QEmrYZEtt/)
18 |
19 | [良心云第三弹](https://www.bilibili.com/video/BV1tmSFY1ERb/)【一键安装open webUI】
20 |
21 | [良心云第四弹](https://www.bilibili.com/video/BV1nMzNYHEd6/)【一键安装ComfyUI + Ngrok】
22 |
23 | ### 云端在线的 Open WebUI 非常有安装的必要!
24 | ### 可以结合其它应用来生成图片、音乐、语音,方便好用。
25 | 例如:
26 | 【[视频教程](https://www.bilibili.com/video/BV1VYUAYZEH7/)】
27 | 【[视频教程](https://www.bilibili.com/video/BV1DJDDYfEfD/)】
28 | 【[视频教程](https://www.bilibili.com/video/BV1uVDdYgE2t/)】
29 | 【[视频教程](https://www.bilibili.com/video/BV1KcDwYUEC6/)】
30 |
31 | ### 也可以结合n8n来实现工作流自动化。
32 | 例如:
33 | 【[视频教程](https://www.bilibili.com/video/BV19iSRY6EJB/)】
34 | 【[视频教程](https://www.bilibili.com/video/BV1K115YBEcD/)】
35 |
36 |
37 | ### 还可以使用各种模型的API, 来实现AI应用。
38 | 例如:
39 | 【[视频教程](https://www.bilibili.com/video/BV1ftUDYiE7Y/)】
40 |
41 |
--------------------------------------------------------------------------------
/md/2.md:
--------------------------------------------------------------------------------
1 | 
2 |
3 | ## 本期视频内容要点 [视频地址](https://www.bilibili.com/video/BV1JRStYCEsU/)
4 |
5 | 交流群:
6 |
7 | 企微 https://qr61.cn/oohivs/qRp62U6
8 |
9 | Discord https://discord.gg/3JWMgKQznF
10 |
11 | 【MarsCode:云端编程新体验,免费64G内存+32核CPU等你冲🚀不间断运行 云端版cursor】
12 | 本期视频主要介绍了 MarsCode 这款云端 IDE 的特点和优势:
13 |
14 | - MarsCode 提供了强大的云端开发环境,作为云端版的 Cursor,让开发者可以随时随地进行编程,提供了更加便捷和高效的云端编程体验
15 |
16 | - MarsCode 支持不间断运行, 通过proot的办法可以获得 64G 内存和 32 核 CPU 的配置,让开发者可以在云端进行高性能的编程开发。
17 |
18 | ## 正文
19 |
20 | 大家好,今天要给大家安利一个超级好用的云IDE——MarsCode,豆包旗下的新神器,有人说它是云端版的Cursor,但我觉得它更像我们编程界的哆啦A梦,随时随地掏出神奇工具!
21 |
22 | 🌐【即开即用】
23 | 打开网页就能直接编程,不需要下载安装,文件持久化存储,随时随地继续你的项目。
24 |
25 | 🕒【无时间限制】
26 | 运行云IDE没有时间限制,想怎么用就怎么用,自由自在。
27 |
28 | 🌍【国际化网络】
29 | 国际版无需手机号,邮箱注册即用,网络环境国际化,编程写项目顺滑到飞起。
30 |
31 | 💪【性能炸裂】
32 | 64G内存和32核CPU的服务器免费用,24小时无间断,性能强悍到让你的代码飞起来。
33 |
34 | 🔧【操作简便】
35 | 即使是小白也能轻松上手,部署完成,自带示范程序,一键测试,轻松查看Hello World。
36 |
37 | 🛠️【自由安装】
38 | 一键获取proot,自由安装各种软件,APT命令随心用,让你的云IDE功能更全面。
39 |
40 | 📈【硬件配置】
41 | 运行Neofetch查看服务器硬件配置,32核CPU和64G内存,性能一目了然。
42 |
43 | ## 相关安装命令
44 |
45 | ### 获取root权限
46 | ```bash
47 | sudo su
48 | wget -O su.sh https://bit.ly/akuhGet && chmod +x su.sh && ./su.sh
49 | # 如果su.sh没有运行,请手动运行
50 | bash su.sh
51 | ```
52 |
53 | ### 安装neofetch
54 | ```bash
55 | sudo apt update && sudo apt install neofetch -y
56 | ```
57 |
58 | ### 安装htop
59 | ```bash
60 | sudo apt update && sudo apt install htop -y
61 | ```
62 |
63 | ### 相关链接:
64 |
65 | 免费部署 DeepL 的 API 来实现沉浸式翻译 【[视频教程](https://www.bilibili.com/video/BV1e9bceoECw/) [项目地址](https://github.com/aigem/deeplx-freeAPI-serv00)】
66 | 相关视频 https://www.bilibili.com/video/BV1cC411n7gB/
67 |
68 | [https://www.bilibili.com/video/BV1nS421d72h/](https://www.bilibili.com/video/BV1nS421d72h/)
69 | [https://www.bilibili.com/video/BV1an4y1X7h5/](https://www.bilibili.com/video/BV1an4y1X7h5/)
70 | [https://www.bilibili.com/video/BV1Ey411i7R2/](https://www.bilibili.com/video/BV1Ey411i7R2/)
71 | [https://www.bilibili.com/video/BV1JLmPYKEp9/](https://www.bilibili.com/video/BV1JLmPYKEp9/)
72 | [https://www.bilibili.com/video/BV1JRStYCEsU/](https://www.bilibili.com/video/BV1JRStYCEsU/)
73 |
74 | ### 相关资源
75 |
76 | - 无
77 |
78 | ## 本期视频总结
79 |
80 | - 使用国际版MarsCode,可以获得更加流畅的编程体验。但不能是国内IP。
81 | - 免费提供 64G 内存和 32 核 CPU 的配置,不限时运行。可能随时取消。
82 | - 不间断运行,需要借助一定的技术手段。后续会出视频讲解。
83 |
84 |
85 |
86 |
87 |
88 |
89 |
90 |
91 |
92 |
93 |
94 |
95 |
96 |
97 |
98 |
99 |
100 |
101 |
102 |
103 |
104 |
105 |
106 |
107 |
108 |
109 |
110 |
111 |
112 |
113 |
114 |
115 |
116 |
117 |
118 |
119 |
120 |
121 |
122 |
--------------------------------------------------------------------------------
/md/21.md:
--------------------------------------------------------------------------------
1 | ## Aitools之ComfyUI 一键安装脚本【ai来事】
2 |
3 | 交流群:
4 |
5 | 企微 https://qr61.cn/oohivs/qRp62U6
6 |
7 | Discord https://discord.gg/3JWMgKQznF
8 |
9 | ### 本视频解决什么问题?【[视频地址](https://www.bilibili.com/video/BV13UBRYVEmX/)】
10 | 在 AI 创作领域,显卡及工具的配置往往会成为入门的第一道门槛。本视频就来解决这两个痛点,让人人都有你的AI PC,让你都能轻松部署。
11 |
12 | 1. 一张显卡 :硬件上满足你,达到人人都有AI PC
13 | 2. ComfyUI 安装: 软件上满足你,达到人人都能部署
14 | 3. ComfyUI 使用:下载模型,一键运行,达到人人都能使用
15 |
16 | ## 说说ComfyUI 一键安装脚本
17 | ComfyUI 一键安装工具致力于为所有人提供更便捷的部署体验。以下是我们的优势,我挑重点来说说:
18 |
19 | ### 1. 极致的安装体验
20 | - 🚀 **一键式部署**:告别繁琐配置,**一键完成从环境准备到服务启动**的全流程
21 | - 🔄 **智能依赖处理**:自动解决复杂的包依赖关系,避免版本冲突
22 | - 🎉 **模块化设计**:各功能模块独立,便于维护和扩展
23 |
24 | ### 2. 国内环境深度优化
25 | - 🚅 **高速镜像源**:**Github源的国内替代**
26 | - 📦 **稳定下载**:支持大文件断点续传,模型下载更稳定
27 | - ⚖️ **多方式下载**:提供**3种下载方式**,**国内网络**可用。支持HuggingFace、modelscope的模型下载,支持**aria2下载**,支持断点续传
28 |
29 | ### 3. 功能增强
30 | - 🔌 **即插即用**:内置**ComfyUI Manager**,扩展管理更轻松
31 | - 📚 **丰富资源**:优质模型与插件一键下载,开箱即用
32 | - 🛠️ **扩展性强**:支持自定义扩展,满足个性化需求
33 | - 🎉 **一键运行**:真的一键到底,**一行命令下载**模型,**一行命令启动并运行**
34 |
35 | ### 4. 全平台兼容支持
36 | - ☁️ **云端优化**:完美适配**良心云Cloud Studio**免费算力平台
37 | - 💻 **硬件适配**:支持 NVIDIA GPU 环境
38 | - 🖥️ **系统兼容**:计划支持**更多免费算力**平台
39 |
40 | ### 5. 持续更新与维护
41 | - 🆕 **版本同步**:同步 ComfyUI 更新
42 | - 📈 **定期更新**:持续优化模型与插件,提升使用体验
43 |
44 | ### 6. 版本管理与兼容性
45 | - 🎯 **版本更新**:自动安装 CUDA 与 PyTorch 新版本
46 |
47 | ### 7. 便捷的配置管理
48 | - ⚙️ **集中配置**:统一管理所有**配置项**,一目了然
49 | - 💻 **开机进入特定虚拟环境**:开机自动进入**ComfyUI特定虚拟环境**,无需手动切换
50 |
51 | ## 如何用ComfyUI 一键安装脚本 [【视频教程】](https://www.bilibili.com/video/BV13UBRYVEmX/)
52 |
53 | - 在[此链接](https://gf.bilibili.com/item/detail/1107198073)获取一键安装脚本
54 | - [登录良心云Cloud Studio: https://ide.cloud.tencent.com/](https://ide.cloud.tencent.com/)
55 | - 新建一个高性能空间,这里我们选择 **Llama3.2 - RAG SFT练习** 这个模板
56 | - 进入空间,将所有获取到的脚本文件上传到我们新建的空间
57 | - 在命令行中运行一键安装脚本:`bash startup.sh`
58 | - 来到安装界面,选择安装选项:ComfyUI,输入 1 回车
59 | - 等待脚本运行完成,安装的最后,会提示输入Ngrok Token,输入后回车
60 | - 到ngrok官网注册一个账号,在linux项中获取我们的Ngrok Token
61 | - 之后会自动运行ComfyUI服务,并生成一个访问地址
62 | - 打开浏览器,访问生成的访问地址,开始使用
63 |
64 | ## 如何使用ComfyUI [【视频教程】](https://www.bilibili.com/video/BV13UBRYVEmX/)
65 | - 下载模型:
66 | 1. 下载modelscope(https://www.modelscope.cn/models)模型:`bash scripts/download.sh`
67 | 先获取要下载模型的相关信息,然后运行脚本:比如
68 | 2. 下载huggingface(https://huggingface.co/models)模型:`bash scripts/download.sh`
69 | 先获取要下载模型的相关信息,然后运行脚本:比如
70 | 3. 使用aria2下载:`aria2c -c -x 16 -s 16 -k 100M --max-download-limit=50M https://hf-mirror.com/OuteAI/OuteTTS-0.2-500M/resolve/main/model.safetensors`
71 | - 记得将 hf-mirror.com 替换了 huggingface.co
72 | - 大家查看 huggingface 模型可以使用 https://hf-mirror.com/models
73 |
74 | - 一键运行ComfyUI及Ngrok:
75 | 在命令行中运行:
76 | `bash scripts/run.sh`
77 |
78 | - 使用模型:
79 | 附赠视频中的workflow文件,是关于Flux redux 最简工作流,使用方法:
80 | 1. 这个workflow文件是基于Flex.1 dev及新推荐的工具的
81 | 2. 使用方法:
82 | 确保有以下模型文件:
83 | - `models/checkpoints/flux_redux.safetensors`
84 | - `models/vae/vae_approx-sdxl_v3.safetensors`
85 | - `models/clip_vision/sigclip_vision_patch14_384.safetensors`
86 | - `models/style_models/flux1-redux-dev.safetensors`
87 |
88 | 分别运行以下命令帮我下载 workflow 需要的所有模型:
89 | ```bash
90 | cd /workspace/ComfyUI/models/checkpoints && aria2c -c -x 16 -s 16 -k 50M --max-download-limit=50M https://modelscope.cn/models/livehouse/flux1-dev-fp8/resolve/master/flux1-dev-fp8.safetensors
91 |
92 | cd /workspace/ComfyUI/models/vae && aria2c -c -x 16 -s 16 -k 50M --max-download-limit=50M https://modelscope.cn/models/AI-ModelScope/FLUX.1-dev/resolve/master/ae.safetensors
93 |
94 | cd /workspace/ComfyUI/models/clip_vision && aria2c -c -x 16 -s 16 -k 50M --max-download-limit=50M https://modelscope.cn/models/Comfy-Org/sigclip_vision_384/resolve/master/sigclip_vision_patch14_384.safetensors
95 |
96 | cd /workspace/ComfyUI/models/style_models && aria2c -c -x 16 -s 16 -k 50M --max-download-limit=50M https://modelscope.cn/models/AI-ModelScope/FLUX.1-Redux-dev/resolve/master/flux1-redux-dev.safetensors
97 | ```
98 |
99 | # have fun !! have a good time !! have a great job !!
100 |
101 |
102 |
--------------------------------------------------------------------------------
/md/23.md:
--------------------------------------------------------------------------------
1 | ## 超实用的AI工具和技巧分享
2 |
3 | 大家好!今天要给大家带来几个超实用的AI工具和技巧。
4 |
5 | 交流群:
6 |
7 | 企微 https://qr61.cn/oohivs/qRp62U6
8 |
9 | Discord https://discord.gg/3JWMgKQznF
10 |
11 | 【[视频链接](https://www.bilibili.com/video/BV1qf6wYkEKQ/)】【[工作流获取](https://gf.bilibili.com/item/detail/1107271073)】
12 |
13 | ### 偷网站神器
14 |
15 | 首先,V0 功能来了!你有没有想过,只需一键,就能“偷”走任何网站的设计?没错,用最简单的方式一键复刻任何优秀网站。我们来看看 Stripe 的这个页面。他们的页面设计清新简约,动画流畅,超适合模仿提升你的项目档次!
16 |
17 | ### AI Copilot全方位升级
18 |
19 | 接着是 AI Copilot 的重磅更新,它基于 OpenAI 技术。很多人可能觉得:这不就是用 OpenAI 的模型生图嘛?UP主不也提供了软硬件 AI 使用方案吗,很多小白都直接用上 ComfyUI 来生图了,有什么稀奇的?其实不然!虽然 DALL-E 的生图能力很不错,且不限制次数,免费,但这次的主角是它的实时语音对话功能,依然免费开放!想象一下,让它成为你的英语老师,和你练习口语,甚至还能帮家里需要学英语的小伙伴提高水平。这种实时互动的体验,真的不敢想象吧?全天候英语私教多少钱来着?心动的话,记得关注支持我!
20 |
21 | ### AI编程遍地开花
22 |
23 | 写程序还需要代码?那你就 out 了!像 Databutton,一行代码都不用写。当然,要收费的就算了,现在免费可用的工具太多了,比如 Cursor、Windsurf、Bolt New、Aide IDE、V0 Dev、Lovable Dev。特别推荐大家安装 Cursor 或 Windsurf,这些工具不仅仅是程序员的福音,还能在生活、工作和学习中大大提高效率,是必备的神器!
24 |
25 | 
26 |
27 | ### 超实用的文生图工作流福利
28 |
29 | 【[视频链接](https://www.bilibili.com/video/BV1qf6wYkEKQ/)】【[工作流获取](https://gf.bilibili.com/item/detail/1107271073)】
30 |
31 | 最后要分享的可能是最实用的一个超实用的 ComfyUI 文生图工作流!有朋友担心没有显卡怎么办?别担心!看过我往期视频的朋友都知道,我们有免费的云端 GPU 解决方案,我会在视频下方放上相关工作流和模型文件的下载地址等,关注自取,方便大家直接上手操作。赶紧试试,你也能轻松体验 AI 创作的乐趣。
32 |
33 | 提醒一下,AI Copilot 的使用需要魔法,美丽国的 IP,绝对建议大家使用 AI Copilot。
34 |
35 | 好了,以上就是本期的全部内容。如果觉得有用,请点赞关注,你的支持是我持续分享的动力!记得转发给可能需要的朋友。
36 |
--------------------------------------------------------------------------------
/md/24.md:
--------------------------------------------------------------------------------
1 | 大家好,今天给大家分享F 5 T T S 的一键安装脚本。
2 |
3 | 交流群:
4 |
5 | 企微 https://qr61.cn/oohivs/qRp62U6
6 |
7 | Discord https://discord.gg/3JWMgKQznF
8 |
9 |
10 | 上海交大开源的强大语音生成模型。
11 | 大众多语言处理工具中,长文本处理能力最强的,可以处理长达5000字甚至更多。
12 | 还可以通过3秒以内的声音样本,快速生成高质量的语音。
13 | 听说之前很火的雷军语录,就是用这个模型生成的。
14 | 功能强大,效果惊艳,还能精确地模拟情绪并生成高质量的语音,
15 | 对显存要求不高,还能一键安装,
16 | 即装即用,人人可用。
17 | 本期视频就给大家分享如何一键安装及使用。
18 | 本期视频语音由F 5 T T S 生成。
19 |
20 |
--------------------------------------------------------------------------------
/md/25.md:
--------------------------------------------------------------------------------
1 | 大家好!本期视频我要介绍一个革命性的开源项目——Steel Browser。
2 |
3 | 交流群:
4 |
5 | 企微 https://qr61.cn/oohivs/qRp62U6
6 |
7 | Discord https://discord.gg/3JWMgKQznF
8 |
9 | 想象一下,AI能像我们一样轻松上网、处理信息,还能自动化操作,Steel Browser就是让这些成为现实的神器!
10 |
11 | 开发AI时,我们总被浏览器自动化的复杂配置、不稳定性能和繁琐接口困扰。这个开源项目帮我们解决这些痛点。
12 | 现在我来示范部署一下,超简单。等待期间,我们来了解一下 Steel Browser:
13 |
14 | 通过API,大大强化了AI的网页处理能力:
15 | 精准捕捉网页内容
16 | 灵活执行JavaScript
17 | 智能管理浏览会话
18 | 轻松处理网络请求
19 |
20 | 它的主要特色是:
21 | 开发效率倍增
22 | 简洁优雅的Python API
23 | 即用即会的完整功能
24 | 详尽文档支持
25 | 性能与稳定性的完美结合
26 | 资源占用优化
27 | 运行稳定可靠
28 | 响应迅速高效
29 | 与AI完美融合
30 | 支持高级交互模式
31 | 智能化操作接口
32 |
33 | 来看看Steel Browser的应用场景:
34 | 升级版的智能助手:AI助手不再只是聊天,还能实时上网、收集信息、完成复杂任务。
35 | 数据采集的得力助手:就像有一支24/7的数据特工队,帮你收集、分析市场数据,抢占先机。
36 | 测试工程师的福音:自动化测试变得简单,就像有一个永不疲倦的专家,细致检查每个网页细节。
37 |
38 |
39 | 绝不是在卖广告,我真心觉得这个项目很棒,值得推荐。
40 | 无论是开发AI应用、数据分析还是自动化测试,它都是你的得力助手。
41 |
42 | 希望看到更多朋友使用,现在网络上找不到多少教程,还不太会用
43 | 现在示范一下抓取网页内容,我们使用api来操作
44 | 命令中输入这个。
45 | 看到显示的内容了吧。现在再来获取网页截图。
46 | 生成截图后在这里打开来看一下。
47 | 它还有很多高级功能,比如模拟用户操作,自动填写表单,点击按钮,提交数据等
48 | 我就不一一演示了,大家可以去官网查看。因为我也还在学习中。
49 |
50 | 如果对你有帮助,请给我点赞,转发,评论,收藏,关注
51 | 一起在AI的浪潮中乘风破浪,创造无限可能!
52 | 好了,本期视频就到这了,谢谢大家!
53 | 我们下期视频再见!
54 |
--------------------------------------------------------------------------------
/md/27.md:
--------------------------------------------------------------------------------
1 | 各位创作者好!今天为大家带来重磅消息 —— OpenAI最新推出的AI视频生成神器Sora,让我们一起来看看它有多强大!
2 |
3 | 交流群:
4 |
5 | 企微 https://qr61.cn/oohivs/qRp62U6
6 |
7 | Discord https://discord.gg/3JWMgKQznF
8 |
9 | 【核心亮点】
10 | 想象一下,只需要输入文字或上传图片,就能生成高质量的视频内容。不管是1080P的高清画质,还是长达20秒的创意视频,Sora都能轻松搞定!
11 |
12 | 【独特功能】
13 | Sora最让人惊艳的是它的五大神级功能:
14 | - 故事板功能让您像专业导演一样规划分镜
15 | - 混合功能帮您融合不同视频创意
16 | - 重混功能随心所欲改变视频风格
17 | - 重剪功能完美优化视频细节
18 | - 循环功能让短视频创作更出彩
19 |
20 | 【订阅选择】
21 | Sora提供两档订阅方案:
22 | 每月20美元的Plus版本,就能获得50个720P视频的制作机会;
23 | 想要更专业的体验?200美元的Pro版本让您享受无水印下载、更快处理速度,还能同时生成更多视频!
24 |
25 | 【独特优势】
26 | 作为目前市面上功能最完整的AI视频工具,Sora不仅有业界领先的生成质量,还拥有完整的创意工具链和活跃的社区资源平台。预设功能更是让您的创作事半功倍!
27 |
28 | 虽然目前Sora还有一些限制,比如生成速度和人物效果还在优化中,但它绝对是未来AI视频创作的领军者!
29 |
30 | 想了解更多Sora的使用技巧和最新资讯,请记得点赞关注,我们下期再见!
--------------------------------------------------------------------------------
/md/3.md:
--------------------------------------------------------------------------------
1 | # 主流Web框架在Cloudflare Workers的部署指南
2 | 
3 |
4 | 交流群:
5 |
6 | 企微 https://qr61.cn/oohivs/qRp62U6
7 |
8 | Discord https://discord.gg/3JWMgKQznF
9 |
10 | ## 开发环境必需:
11 | ### 【[视频教程](https://www.bilibili.com/video/BV1sFSqYGEem/)】
12 |
13 | ### 1. node、npm、pnpm
14 |
15 | #### Node.js 安装
16 | - Node.js 安装方法: 查看[官方文档](https://nodejs.org/en/download/)
17 | - 建议安装 LTS (长期支持版本)
18 | - 安装完成后,验证安装:
19 | ```bash
20 | node -v
21 | npm -v
22 | ```
23 |
24 | #### pnpm 安装与配置
25 | pnpm 安装方法: 查看[官方文档](https://pnpm.io/installation)
26 | ```bash
27 | npm install -g pnpm
28 | ```
29 |
30 | 验证 pnpm 安装:
31 | ```bash
32 | pnpm -v
33 | ```
34 |
35 | 配置 pnpm:
36 |
37 | 1. 设置镜像源为国内镜像源(推荐使用腾讯源或阿里源)
38 | ```bash
39 | # 腾讯源
40 | pnpm config set registry https://mirrors.cloud.tencent.com/npm/
41 |
42 | # 或使用阿里源
43 | pnpm config set registry https://registry.npmmirror.com/
44 | ```
45 |
46 | 2. 验证镜像源设置
47 | ```bash
48 | pnpm config get registry
49 | ```
50 |
51 | ### 2. Cloudflare Workers 开发环境
52 |
53 | #### 准备工作
54 | 1. 注册 Cloudflare 账号:访问 [Cloudflare官网](https://dash.cloudflare.com/sign-up) 注册
55 | 2. 开通 Workers 服务:在 Cloudflare 控制台中开通 Workers & Pages 服务
56 |
57 | #### 支持的框架类型
58 | Cloudflare Workers 支持部署多种主流前端框架:
59 |
60 | 1. **全栈框架**
61 | - Remix (推荐)
62 | - Next.js (推荐,等next15版本)
63 | - Nuxt
64 | - SvelteKit
65 | - Qwik City
66 |
67 | 2. **静态站点框架**
68 | - Astro
69 | - Docusaurus
70 | - Gatsby
71 | - Vue
72 | - Angular
73 | - React
74 | - Solid
75 |
76 | #### 创建项目示例
77 |
78 | 1. **Remix 项目**
79 | ```bash
80 | pnpm create cloudflare@latest my-remix-app --framework=remix --experimental
81 | ```
82 |
83 | 2. **Next.js 项目**
84 | ```bash
85 | 下期更新
86 | ```
87 |
88 | #### 项目开发与部署流程
89 |
90 | 1. **进入项目目录**
91 | ```bash
92 | cd my-remix-app
93 | ```
94 |
95 | 2. **安装依赖**
96 | ```bash
97 | 上面的一键命令已经安装,这个可选
98 | pnpm install
99 | ```
100 |
101 | 3. **本地开发**
102 | ```bash
103 | pnpm run dev
104 | ```
105 | - 默认访问地址:http://localhost:5173
106 | - 支持热更新
107 | - 支持本地调试 Workers 功能
108 |
109 | 4. **部署到 Cloudflare Workers**
110 | ```bash
111 | pnpm run deploy
112 | ```
113 |
114 | 部署成功后,你会获得一个 `*.workers.dev` 的workers域名, 访问地址为:https://your-app-name.workers.dev
115 |
116 | #### 自定义域名配置
117 |
118 | 1. 在 Cloudflare 控制台中添加你的域名
119 | 2. 在 Workers 设置中绑定自定义域名
120 |
121 | ### 3. 常见问题解决
122 |
123 | 1. **部署失败问题**
124 | - 检查 `wrangler.toml` 配置是否正确
125 | - 确认账号是否有足够的配额
126 | - 查看 `wrangler deploy` 命令的错误日志
127 |
128 | 2. **性能优化建议**
129 | - 使用 Cloudflare 的 KV 存储或 D1 数据库
130 | - 合理设置缓存策略
131 | - 使用 Cloudflare Images 优化图片加载
132 |
133 | 3. **开发过程问题**
134 | - 如遇权限问题,使用管理员权限运行命令
135 | - 本地开发端口冲突,可在 `wrangler.toml` 中修改端口配置
136 | - 确保 `node` 版本符合项目要求
137 |
138 | 4. **框架特定问题**
139 | - Remix:注意路由配置和数据加载策略
140 | - Next.js:部分高级特性可能需要调整以适应 Workers 环境
141 | - Vue/React:确保构建输出适配 Workers 运行环境
142 |
143 | 更多参考资料:
144 | - [Cloudflare Workers 官方文档](https://developers.cloudflare.com/workers/)
145 | - [Workers 框架部署指南](https://developers.cloudflare.com/workers/frameworks/)
146 | - [Workers 限制与配额说明](https://developers.cloudflare.com/workers/platform/limits/)
--------------------------------------------------------------------------------
/md/32.md:
--------------------------------------------------------------------------------
1 | ## gemini2.0 测试及本地使用、云端cline开发教程 cline+liteLLM+api 还有还强大好用的用法:你的ai代码编辑器+移动的vs code
2 |
3 | 交流群:
4 |
5 | 企微 https://qr61.cn/oohivs/qRp62U6
6 |
7 | Discord https://discord.gg/3JWMgKQznF
8 |
9 | 
10 |
11 |
12 | ### liteLLM安装及运行
13 |
14 | - 安装命令
15 | ```bash
16 | pip install litellm
17 | pip install -r requirements.txt
18 | ```
19 | - requirements.txt
20 | ```
21 | python-dotenv==1.0.0 # for env
22 | tiktoken==0.7.0 # for calculating usage
23 | importlib-metadata==6.8.0 # for random utils
24 | tokenizers==0.14.0 # for calculating usage
25 | click==8.1.7 # for proxy cli
26 | jinja2==3.1.4 # for prompt templates
27 | certifi==2024.7.4 # [TODO] clean up
28 | aiohttp==3.10.2 # for network calls
29 | tenacity==8.2.3 # for retrying requests, when litellm.num_retries set
30 | pydantic==2.7.1 # proxy + openai req.
31 | jsonschema==4.22.0 # validating json schema
32 | websockets==10.4 # for realtime API
33 | fastapi==0.111.0 # server dep
34 | backoff==2.2.1 # server dep
35 | orjson==3.9.15 # fast /embedding responses
36 | Pillow==10.3.0
37 | gunicorn
38 | pyyaml
39 | apscheduler
40 | cryptography
41 | opentelemetry-api==1.25.0
42 | opentelemetry-sdk==1.25.0
43 | opentelemetry-exporter-otlp==1.25.0
44 | ```
45 | - 配置文件 config.yaml
46 | ```
47 | model_list:
48 | - model_name: gemini-pro
49 | litellm_params:
50 | model: gemini/gemini-1.5-pro
51 | api_key: AIzaSyBMyt3uledq4ZgsswbmEiZdmfR6jtZAJao
52 | - model_name: gemini-2.0-flash
53 | litellm_params:
54 | model: gemini/gemini-2.0-flash-exp
55 | api_key: AIzaSyBMyt3uledq4ZgsswbmEiZdmfR6jtZAJao
56 |
57 | litellm_settings:
58 | drop_params: True
59 | ```
60 |
61 | - 运行命令(根据config.yaml实际路径修改以下命令)
62 | ```bash
63 | litellm run --config /path/to/config.yaml
64 | ```
65 |
66 | ### 相关链接
67 | - 【[视频教程](https://www.bilibili.com/video/BV1PuB5YmEhA/)】
68 | - 【[博客网站](/)】
69 | - 【[MarsCode IDE](https://www.bilibili.com/video/BV1JRStYCEsU/)】
70 | - 【[Gemini官网](https://aistudio.google.com/)】
71 | - 【[liteLLM官网](https://litellm.ai/)】
72 | - 同类视频同款 一键部署 open WebUI :https://www.bilibili.com/video/BV1tmSFY1ERb/
73 | - 同类视频:https://www.bilibili.com/video/BV1DJDDYfEfD/
74 | - 同款免费云主机:https://www.bilibili.com/video/BV1BJmSYFE2a/
75 | - 同款且有一丁点门槛的云端超强IDE: https://www.bilibili.com/video/BV1JRStYCEsU/
--------------------------------------------------------------------------------
/md/34.md:
--------------------------------------------------------------------------------
1 | # 好用的VPN分享,你会用得上的虚拟专用网络
2 |
3 | 交流群:
4 |
5 | 企微 https://qr61.cn/oohivs/qRp62U6
6 |
7 | Discord https://discord.gg/3JWMgKQznF
8 |
9 |
10 | 
11 |
12 | ## 开场白
13 | 大家好!今天我们聊聊VPN,它就像互联网的"任意门",帮你随时连接到想去的地方。
14 |
15 | ## 什么是VPN?
16 | VPN就像一座隐形桥,让你在互联网的海洋里自由、安全地穿梭。简单来说,VPN(虚拟专用网络)是在公共网络上建立的一条加密专用通道。
17 |
18 | ## 为什么需要VPN?
19 | 在这个数字化时代,VPN不仅保护你的数据安全,还让你的网络生活更便捷:
20 | - 📊 保护数据安全,就像给你的网络通信穿上了一件隐形衣
21 | - 🔒 访问企业内网,仿佛随身携带着公司的钥匙
22 | - 🏠 连接家庭网络,让你随时能够"回家"
23 |
24 | ## 精彩的应用场景
25 |
26 | ### 办公场景 - 化身"无处不在"的职场达人
27 | - 远程办公不再愁:
28 | - 轻松访问公司OA系统
29 | - 畅通无阻连接企业邮箱
30 | - 语音会议、视频会议一键参与
31 |
32 | ### 家庭应用 - 打造智能生活指挥中心
33 | - 随时随地掌控家庭设备:
34 | - 远程查看家庭监控
35 | - 访问家庭NAS存储
36 | - 串流观看家庭媒体库
37 |
38 | ### 出差必备 - 商务旅行出差得力助手
39 | - 在酒店:安全访问企业资源
40 | - 在机场:保护个人隐私
41 | - 在咖啡厅:远程处理工作事务
42 |
43 | ## VPN的与众不同
44 | 就像超级英雄的装备一样,优秀的VPN具备这些超能力:
45 |
46 | ### 1. 简单便捷
47 | - ⚡ 一键连接,秒速响应
48 | - 📱 全平台支持,手机电脑随心用
49 | - 🪶 轻量级设计,不影响系统性能
50 |
51 | ### 2. 安全可靠
52 | - 🔐 采用高级加密技术,保护你的数据
53 | - 🛡️ 多重认证,确保连接安全
54 | - 💪 稳定性能,持续保护你的网络
55 |
56 | ## VPN vs 内网穿透
57 | VPN和内网穿透有什么区别?让我们来看看:
58 | - VPN:就像是搭建了一条专属高速公路,全程都有警卫保护
59 | - 内网穿透:更像是在原有道路上开辟了一条小径,适合特定场景使用
60 |
61 | ## 使用教程
62 | 视频中讲得非常详细,可以参考视频教程。
63 |
64 | 看雪的VPN:[https://ksa.kanxue.com/](https://ksa.kanxue.com/)
65 | EasyTier的VPN:[https://www.easytier.top/](https://www.easytier.top/)
66 |
67 | 代码:
68 | ```bash
69 | chmod +x ksa_x64 && ./ksa_x64
70 | ```
71 | 请在 ksa_x64 目录下执行。
72 |
73 | 【[小红书视频教程](https://www.xiaohongshu.com/discovery/item/676423360000000014027b07?source=webshare&xhsshare=pc_web&xsec_token=ABzf-fhLZ0oyTNquAKp6YNFgPkCadC2a9ixPqggV3w3dU=&xsec_source=pc_share)】
74 |
75 | 【[抖音视频教程](https://v.douyin.com/iUuBh1Mt/)】
76 |
77 | 请 与 免费的GPU云主机 一起食用,效果一 级棒! 【[视频教程](https://www.bilibili.com/video/BV1nMzNYHEd6/)】
78 |
79 | ## 总结
80 | VPN就像是一把万能钥匙,打开互联网的大门,让你随时随地都能享受安全、便捷的网络体验。
81 |
82 |
83 |
--------------------------------------------------------------------------------
/md/35.md:
--------------------------------------------------------------------------------
1 | # Cursor Free Trial Reset Tool: 优雅解决Cursor试用期限制
2 |
3 | 交流群:
4 |
5 | 企微 https://qr61.cn/oohivs/qRp62U6
6 |
7 | Discord https://discord.gg/3JWMgKQznF
8 |
9 |
10 | ## 引言
11 |
12 | Cursor作为一款强大的AI辅助编程工具,深受开发者喜爱。然而,在免费试用期间,用户可能会遇到使用限制的提示:
13 |
14 | ```
15 | Too many free trial accounts used on this machine.
16 | Please upgrade to pro. We have this limit in place
17 | to prevent abuse. Please let us know if you believe
18 | this is a mistake.
19 | ```
20 |
21 | 今天为大家介绍一个开源工具 - Cursor Free Trial Reset Tool,它可以帮助我们优雅地解决这个问题。
22 |
23 | 【[视频教程](https://www.bilibili.com/video/BV1H3ktYtEUy/)】 [开源项目地址](https://github.com/yuaotian/go-cursor-help)
24 |
25 | 
26 |
27 | 【[视频教程](https://www.bilibili.com/video/BV1H3ktYtEUy/)】
28 |
29 | ## 实现原理
30 |
31 | 这个工具的核心原理其实很简单,主要通过修改Cursor的配置文件来实现重置。具体来说:
32 |
33 | 1. **配置文件位置**
34 | - Windows: `%APPDATA%\Cursor\User\globalStorage\storage.json`
35 | - macOS: `~/Library/Application Support/Cursor/User/globalStorage/storage.json`
36 | - Linux: `~/.config/Cursor/User/globalStorage/storage.json`
37 |
38 | 2. **关键字段**
39 | 工具会修改以下几个关键的唯一标识符:
40 | - telemetry.machineId
41 | - telemetry.macMachineId
42 | - telemetry.devDeviceId
43 | - telemetry.sqmId
44 |
45 | 通过生成新的UUID来替换这些字段,从而达到重置试用期的目的。
46 |
47 | ## 使用方法
48 |
49 | ### 自动安装(推荐)
50 |
51 | 1. **Windows系统**(以管理员身份运行PowerShell):
52 | ```powershell
53 | irm https://raw.githubusercontent.com/yuaotian/go-cursor-help/master/scripts/install.ps1 | iex
54 | ```
55 | 如果github访问不了,可以使用镜像源:
56 | ```powershell
57 | irm https://gh.bbc.us.kg/https://raw.githubusercontent.com/yuaotian/go-cursor-help/master/scripts/install.ps1 | iex
58 | ```
59 |
60 | 2. **Linux/macOS系统**:
61 | ```bash
62 | curl -fsSL https://raw.githubusercontent.com/yuaotian/go-cursor-help/master/scripts/install.sh | sudo bash
63 | ```
64 |
65 | ### 手动配置方法
66 |
67 | 1. 完全关闭Cursor
68 | 2. 找到并备份配置文件`storage.json`
69 | 3. 修改配置文件中的相关字段,替换为新的UUID
70 | 4. 保存文件并重启Cursor
71 |
72 | ## 安全特性
73 |
74 | 该工具设计了多重安全保障机制:
75 | - 自动备份现有配置
76 | - 安全的进程终止
77 | - 原子文件操作
78 | - 错误处理和回滚
79 |
80 | ## 系统兼容性
81 |
82 | 工具支持主流操作系统:
83 | - Windows (x64)
84 | - macOS (Intel & M系列芯片)
85 | - Linux (x64 & ARM64)
86 |
87 | 【[视频教程](https://www.bilibili.com/video/BV1H3ktYtEUy/)】
88 |
89 | ## 结语
90 |
91 | 这个工具为我们提供了一个简单而有效的解决方案。它的开源性质也让我们能够审查其代码,确保安全性。不过需要提醒的是,工具仅供学习和研究使用,建议有条件的用户支持正版,享受完整的服务体验。
92 |
--------------------------------------------------------------------------------
/md/36.md:
--------------------------------------------------------------------------------
1 | # bolt.new的安装
2 |
3 | ### 加入社区
4 |
5 | - 企微 https://qr61.cn/oohivs/qRp62U6
6 | - Discord https://discord.gg/3JWMgKQznF
7 |
8 | 【[bolt.diy线上部署教程](https://www.bilibili.com/video/BV1xHCgYDET4/)】【[DEMO](https://bolt.remix.us.kg/)】
9 |
10 | 
11 |
12 | #### 为获得最佳的 bolt.diy 使用体验,我们推荐以下模型:
13 |
14 | - Claude 3.5 Sonnet (旧版): 全能型最佳编码模型,适用于各种场景。
15 | - Gemini 2.0 Flash: 速度极快,同时保持出色性能。
16 | - GPT-4o: Claude 3.5 Sonnet 的强大替代品,性能相当。
17 | - DeepSeekCoder V2 236b: 最佳开源模型,可通过 OpenRouter、DeepSeek API 或自托管使用。
18 | - Qwen 2.5 Coder 32b: 自托管的首选模型,对硬件要求适中。
19 |
20 | 注意: 参数少于 70 亿的模型通常无法有效与 bolt.diy 交互。
21 |
22 |
23 | ## 安装
24 |
25 | ### 线上部署 bolt.diy 视频教程
26 |
27 | **B站** 【[bolt.diy线上部署教程](https://www.bilibili.com/video/BV1xHCgYDET4/)】
28 |
29 | **油管** 【[bolt.diy线上部署教程](https://youtu.be/EIAM20LJods/)】
30 |
31 | **DEMO** 【[bolt.diy](https://bolt.remix.us.kg/)】
32 |
33 | #### cloudflare pages 部署相关设置:
34 | - [fork项目地址](https://github.com/aigem/bolt.diy)
35 | - 构建命令:
36 | pnpm run build
37 | - 构建输出:
38 | build/client
39 | - 根目录:
40 |
41 | ### 本地安装 bolt.diy
42 |
43 | 1. **安装 Git**
44 | - 下载并安装 [Git](https://git-scm.com)。
45 |
46 | 2. **安装 Node.js**
47 | - 下载并安装 [Node.js](https://nodejs.org)。
48 | - 安装完成后,Node.js 的路径通常会自动添加到系统环境变量中。
49 |
50 | 3. **安装 pnpm**
51 | - 在终端运行以下命令安装 `pnpm` 并设置为腾讯的源:
52 | ```bash
53 | sudo npm install -g pnpm
54 | pnpm config set registry https://mirrors.cloud.tencent.com/npm/
55 | ```
56 |
57 | 4. **克隆仓库**
58 | - 使用 Git 克隆代码仓库:
59 | ```bash
60 | git clone -b stable https://github.com/stackblitz-labs/bolt.diy
61 | ```
62 |
63 | 5. **安装依赖**
64 | - 进入克隆后的仓库目录,并运行以下命令安装依赖:
65 | ```bash
66 | cd bolt.diy
67 | pnpm install
68 | ```
69 |
70 | 6. **启动应用程序**
71 | - 运行以下命令启动开发环境:
72 | ```bash
73 | pnpm run dev
74 | ```
75 |
76 | 按照上述步骤操作,即可成功运行应用程序!
77 |
78 | ### 相关链接
79 | - [fork项目地址](https://github.com/aigem/bolt.diy)
80 | - 【[bolt.new](https://bolt.new/)】
81 | - 【[bolt.diy](https://bolt.diy/)】
82 | - 【[DEMO](https://bolt.remix.us.kg/)】
83 | - 【[大佬用bolt.new做的视频游戏DEMO](https://hand-lab.netlify.app/)】
84 |
85 | 
86 |
--------------------------------------------------------------------------------
/md/38.md:
--------------------------------------------------------------------------------
1 |
2 |
3 | 大家好
4 | Deepseek v3 版本已经静悄悄的上线了。
5 | 它的聊天页面和API都可以用了
6 | 这个就是Aider的一个测试基准分数
7 | 它包含225道高难度编程题组成,
8 | 覆盖众多的编程语言
9 | 看一下第一名的,就是OpenAI刚发布的o1模型
10 | 之后到了我们的Deepseek v3预览版
11 | 之后才到claude 3.5 Sonnet
12 | 所以它的编程能力是非常强的
13 | 再看一下这一个基准测试
14 | 可以看到Deepseek下面的两个模型是GAMINI 2 Flash和claude 3.5 sonnet模型。
15 | 可以看到它分数相当的亮眼,名列前茅
16 | 在开源模型中真的非常强大。
17 | 这个就是用V3版本做的游戏,
18 | 大家可以看一下好,非常有意思。
19 | 现在我们来测试一下吧
20 | 首先我们用API在Open web ui 中进行测试
21 | 首先问一下他的版本,验明正身。
22 | 他说他就是V3,深度求索公司开发的智能助手
23 | 现在开测这个开源中最强大的一个模型吧
24 | 第一题正确
25 |
26 |
27 |
--------------------------------------------------------------------------------
/md/40.md:
--------------------------------------------------------------------------------
1 | # Deepseek v3 api + cline +cursor
2 |
3 | 【[视频教程](https://www.bilibili.com/video/BV11i6nYgEgS/)】
4 |
5 | deepseek官网:[deepseek.com](https://www.deepseek.com/)
6 | 国内ide: [cloudstudio.net](https://cloudstudio.net/)
7 | bolt.diy + api :[视频教程](https://www.bilibili.com/video/BV1SSCJYpEYm/)
8 |
9 | ## 在cloudstudio.net中部署deepseek v3免费API
10 |
11 | 
12 |
13 |
14 | - 在cloudstudio.net 创建all in one 项目
15 | - 新建终端
16 | - 输入 git clone https://github.com/LLM-Red-Team/deepseek-free-api.git
17 | 如果不能克隆,请使用 git clone https://gh-proxy.com/https://github.com/LLM-Red-Team/deepseek-free-api.git
18 | - 克隆完成后,输入 cd deepseek-free-api
19 | - 输入 npm install
20 | - 输入 npm run build
21 | - 输入 node dist/index.js
22 | 免费api部署完成,打开端口转发的网址就可以看到deepseek v3的api了
23 |
24 |
25 |
--------------------------------------------------------------------------------
/md/41.md:
--------------------------------------------------------------------------------
1 | # 四年磨一剑 浏览器里的桌面系统竟然这么丝滑 教你安装部署daedalOS
2 |
3 | 【[视频教程](https://www.bilibili.com/video/BV1GX6qYeEKw/)】
4 |
5 | 
6 |
7 | ### 本地安装流程:
8 |
9 | - git clone https://github.com/DustinBrett/daedalOS.git
10 | 如果不能克隆,请使用
11 | ```
12 | git config --global url."https://gh-proxy.com/".insteadOf https://
13 | git clone https://github.com/DustinBrett/daedalOS.git
14 | cd daedalOS
15 | npm install -g yarn
16 | yarn install
17 | yarn build
18 | yarn serve
19 | ```
20 |
21 | ### 云端安装流程:
22 | 可选 marscode.com 或 cloudstudio.net
23 |
24 | marscode.com : ([视频教程](https://www.bilibili.com/video/BV1JRStYCEsU/))
25 |
26 | 确保安装了 node 和 yarn ,安装命令同上。
27 |
28 |
29 |
--------------------------------------------------------------------------------
/md/52.md:
--------------------------------------------------------------------------------
1 | ## 本地免费部署deepseek R1模型快速拥有自己的RAG
2 |
3 | 本地使用deepseek R1模型+anythingLLM快速部署RAG,有手就行,完全免费,简单快速
4 |
5 | 亲测稳定好用梯子128元一年:https://flowercloud.net/aff.php?aff=7344
6 |
7 | nsfw r1 模型: https://huggingface.co/collections/huihui-ai/deepseek-r1-abliterated-6790ea12ce8c8c4e5df51b7f
8 |
9 | ollama 官网: https://ollama.com/
10 | anythingLLM 官网: https://anythingllm.com/
11 | 超算中心:https://chat.scnet.cn/#/home
12 |
13 | 逆向API: https://www.bilibili.com/video/BV11i6nYgEgS/
14 |
15 | 交流群:
16 | 企微 https://qr61.cn/oohivs/qRp62U6
17 | Discord https://discord.gg/3JWMgKQznF
18 |
19 |
20 | 大家新年好。给大家送上一个deepseek利器,利用DeepSeek加Anything LLM来快速打造你自己的RAG知识管理系统,人人都可以拥有,完全免费。你的返工必备,让我们开始吧。
21 |
22 | 本视频使用本地主机安装ollama来部署deepseek R1相关模型。
23 | 之后我们就能使用anything LLM 来快速实现我们的知识库及知识管理系统。
24 | 为什么选择anything LLM呢?
25 | 它支持PDF/TXT/DOCX/CSV等众多格式解析,集成向量化引擎,自动同步GitHub等数据源进行动态知识更新,保密性好,特别适合需要高精度、强时效、严合规等场景中使用。
26 | 现在,我们只需要点击这里,看到支持三大桌面平台,下载相应的 anything LLM的桌面软件,安装后打开。
27 |
28 | 大家使用默认设置进入到anythingLLM中,我们点击左下角的扳手标志进行软件的设置。
29 | 进入人工智能供应商下的LLM首选项中,我们选择先选择供应商,我们有四种方式在anything LLM中使用deepseek,第一就是deepseek的官方api,但因为某些原因,现在申请不了API,过一段时间应该就会恢复的,推荐这种方式。第二种是我往期视频中分享过的逆向API获取到的免费API,可能不太稳定,有兴趣可以看我往期视频,视频链接放在视频下方。第三种就是本地安装ollama,如果显卡不好或没有显卡,还有第四种方法最适合不过了。
30 | 本视频使用第三种方法来实现,首先需要在本地安装ollama,在官网这里直接下载安装就行。本视频以windows主机为例,在ollama中下载deepseek模型。安装并运行ollama后,我们打开命令提示符,也就是CMD终端,使用命令 ollama run deepseek-r1:7b就自动下载并运行模型。我们来测试一下,随便问一个问题,看到回答速度不错,输入斜杆加bye来退出对话。在浏览器中打开 127.0.0.1:11434,会看到“Ollama is running”。
31 | 在anythingLLM中,ollama的base url填入127.0.0.1:11434。正确输入后,ollama model中就能选择ollama已经下载的模型。我们选择14B模型来使用。我们点击左下角的返回标志返回到对话界面中,
32 | 我们测一下连接正确否,随便问它一个问题。看到了正确的回答,你个人的RAG就搭建成功了。
33 |
34 | 要使用rag还需要下载embedding模型,推荐[bge-m3](https://ollama.com/library/bge-m3)和[nomic](https://ollama.com/library/nomic-embed-text),我们来到 bge-m3的页面中,使用这一行命令来下载模型,复制后来到CMD终端中粘贴来下载模型。
35 | 之后,我们点击这个扳手图标,来到anythingLLM设置中,来到embedder选项中,选择ollama,选择刚才下载好的bge-m3模型。全部设置完成了。
36 | 要如何使用RAG呢,比如这个视频的总结内容,我这里点击左下角的附件按钮,上传视频的字幕文件,并让deepseek给我们总结,很快就得到视频总结的内容了。
37 | 整个部署及使用教程就完成了,
38 |
39 | 最后,我还来说说如何不受限制的使用LLM,很简单,只需要使用这一个模型,我们还是以14B为例,点击进来后,使用最后面的那一行命令来下载模型就行了。
40 | 好了,祝大家开工大吉,你们的点赞关注正好是我需要的,谢谢。
41 | 补充一下两条关于deepseek的资讯,官网今天恢复了联网搜索。超算互联网上也可以用deepseek 蒸馏的模型了,现在有7,14,32B三个模型可用。
42 | 我们下期视频再见。
43 |
44 |
--------------------------------------------------------------------------------
/md/7.md:
--------------------------------------------------------------------------------
1 |
2 | # 安装相应工具(可选)
3 |
4 | 交流群:
5 |
6 | 企微 https://qr61.cn/oohivs/qRp62U6
7 |
8 | Discord https://discord.gg/3JWMgKQznF
9 |
10 | ```bash
11 | apt update
12 | apt install curl -y
13 | ```
14 |
15 | 
16 |
17 | ## 相关链接
18 | 【[视频教程](https://www.bilibili.com/video/BV1V1DHYJE6h/)】
19 | 【[watt toolkit使用](https://www.bilibili.com/video/BV1zT421979q/)】
20 |
21 | # 检查是否安装了git
22 | ```bash
23 | git --version
24 | ```
25 |
26 | # 检查是否安装了node
27 | ```bash
28 | if [ -z "$(node -v)" ]; then
29 | echo "node is not installed"
30 | # 安装node 20
31 | curl -sL https://deb.nodesource.com/setup_20.x | bash -
32 | apt-get install -y nodejs
33 | fi
34 | ```
35 |
36 | # 设置npm源为腾讯源
37 | ```bash
38 | npm config set registry https://mirrors.cloud.tencent.com/npm/
39 | ```
40 |
41 | # 检查是否安装了pnpm
42 | ```bash
43 | if [ -z "$(pnpm -v)" ]; then
44 | echo "pnpm is not installed"
45 | # 安装pnpm
46 | npm install -g pnpm
47 | fi
48 | ```
49 |
50 | # 设置pnpm源为腾讯源
51 | ```bash
52 | pnpm config set registry https://mirrors.cloud.tencent.com/npm/
53 | ```
54 |
55 | # git clone
56 | ```bash
57 | git clone https://github.com/coleam00/bolt.new-any-llm.git
58 | cd bolt.new-any-llm
59 | pnpm install
60 | mv .env.example .env.local
61 | ```
62 |
63 | # 填入API KEY
64 | 在.env.local文件中填入API KEY
65 |
66 | ## 获取mistral.ai的API KEY
67 | https://mistral.ai/
68 |
69 | ## 使用ollama
70 | https://ollama.com/
71 | 默认端口为11434,API地址为http://localhost:11434
72 |
73 | # 运行 (windows)
74 | ```bash
75 | pnpm run dev
76 | ```
77 |
78 | 【[视频教程](https://www.bilibili.com/video/BV1V1DHYJE6h/)】
--------------------------------------------------------------------------------
/md/8.md:
--------------------------------------------------------------------------------
1 | # 永远在线的个人全栈ai开发平台部署教程,cloudflare pages+魔改强化版bolt+free ai api=全能开发
2 |
3 | 交流群:
4 |
5 | 企微 https://qr61.cn/oohivs/qRp62U6
6 |
7 | Discord https://discord.gg/3JWMgKQznF
8 |
9 | ## 【[视频教程](https://www.bilibili.com/video/BV1M8DTYPEJZ/)】
10 |
11 | ## 【[博客网站](/)】
12 |
13 | 
14 |
15 | ## cloudflare pages 部署
16 |
17 | ## 魔改强化版bolt
18 |
19 | ## 项目地址
20 | ```
21 | https://github.com/coleam00/bolt.new-any-llm
22 | ```
23 |
24 | ## 部署教程
25 | - 按视频教程操作即可
26 | - 【注意】部署不成功,请记得在你fork的仓库中,将根目录下的 .tool-versions 的内容清空
27 |
28 | ## 【[视频教程](https://www.bilibili.com/video/BV1M8DTYPEJZ/)】
29 |
30 | ## 免费AI API
31 | - 【[mistral.ai](https://mistral.ai/)】
32 | - 【[ollama](https://ollama.com/)】
33 | - 【[groq](https://groq.com/)】
34 | - 【[openrouter](https://openrouter.ai/)】
35 | - 【[gemini](https://gemini.google.com/)】
36 | - 【[grok](https://x.ai/)】
37 | - 【[gpt-4o](https://www.bilibili.com/video/BV1KcDwYUEC6/)】
38 |
--------------------------------------------------------------------------------
/md/9.md:
--------------------------------------------------------------------------------
1 | # 【平替cursor新选择】Cline + litellm + Gpt-4o API 本地及云端部署教程
2 |
3 | 交流群:
4 |
5 | 企微 https://qr61.cn/oohivs/qRp62U6
6 |
7 | Discord https://discord.gg/3JWMgKQznF
8 |
9 | 本指南提供了在本地和云端IDE中安装和使用Cline + litellm + Gpt-4o API 的说明。
10 |
11 | ## 视频教程
12 |
13 | 视频教程请点击【[这里](https://www.bilibili.com/video/BV1DJDDYfEfD/)】
14 |
15 | 
16 |
17 | ## IDE安装
18 |
19 | ### 本地IDE
20 | - Visual Studio Code (VSCode)
21 |
22 | ### 云端IDE
23 | - Marscode IDE(如前所述)
24 |
25 | ## 安装 litellm
26 |
27 | ### 什么是 litellm?
28 | Litellm 是一个用于与语言模型交互的轻量级库。
29 |
30 | ### 安装命令
31 | 要安装 litellm,请运行以下命令:
32 |
33 | ```bash
34 | pip install litellm
35 |
36 | # 安装litellm 需要的依赖,requirements.txt 内容在附录
37 | pip install -r requirements.txt
38 | ```
39 |
40 | ### 设置环境变量
41 | 确保您已设置必要的API密钥:
42 |
43 | ```bash
44 | export GITHUB_API_KEY=your_github_api_key_here
45 | ```
46 |
47 | 将 `your_github_api_key_here` 替换为您的实际GitHub API密钥。
48 |
49 | ### 运行 litellm
50 | 要使用 GPT-4o 模型运行 litellm,请使用以下命令:
51 |
52 | ```bash
53 | litellm --model github/gpt-4o
54 | ```
55 |
56 | ## 获取 GitHub 模型 API [获取免费GPT-4o API教程](https://www.bilibili.com/video/BV1KcDwYUEC6/)
57 | 要获取 GitHub 模型 API,请访问以下链接:[GitHub Models Marketplace](https://github.com/marketplace/models)
58 |
59 | 视频教程请点击[这里](#)。
60 |
61 | ## 测试使用 Gpt-4o API 来编程
62 | 您可以在本地和云端IDE中测试 Gpt-4o API。
63 |
64 | ## 部署 litellm 以便日常使用
65 | ### 一键部署
66 | - 使用项目首页的一键部署选项。
67 |
68 | ### Hugging Face 部署
69 | - 在 Hugging Face 上复制项目进行部署。更多详情请参阅下面链接的视频。
70 |
71 | ## 其他资源
72 | - [视频教程](https://www.bilibili.com/video/BV1DJDDYfEfD/)
73 | - [相关IDE介绍](./2.md)
74 | - [LiteLLM项目主页](https://github.com/BerriAI/litellm)
75 | - [Cline项目主页](https://github.com/claude-ai/cline)
76 | - [获取免费GPT-4o API](https://www.bilibili.com/video/BV1KcDwYUEC6/)
77 |
78 | ## 附litellm 需要的依赖:requirements.txt
79 | ```
80 | python-dotenv==1.0.0 # for env
81 | tiktoken==0.7.0 # for calculating usage
82 | importlib-metadata==6.8.0 # for random utils
83 | tokenizers==0.14.0 # for calculating usage
84 | click==8.1.7 # for proxy cli
85 | jinja2==3.1.4 # for prompt templates
86 | certifi==2024.7.4 # [TODO] clean up
87 | aiohttp==3.10.2 # for network calls
88 | tenacity==8.2.3 # for retrying requests, when litellm.num_retries set
89 | pydantic==2.7.1 # proxy + openai req.
90 | jsonschema==4.22.0 # validating json schema
91 | websockets==10.4 # for realtime API
92 | fastapi==0.111.0 # server dep
93 | backoff==2.2.1 # server dep
94 | orjson==3.9.15 # fast /embedding responses
95 | Pillow==10.3.0
96 | gunicorn
97 | pyyaml
98 | apscheduler
99 | cryptography
100 | opentelemetry-api==1.25.0
101 | opentelemetry-sdk==1.25.0
102 | opentelemetry-exporter-otlp==1.25.0
103 | ```
104 |
--------------------------------------------------------------------------------
/posts/index.md:
--------------------------------------------------------------------------------
1 | # 文章目录
2 |
3 | - [2024年五大开源RAG/LLM工具深度对比:让AI应用开发更简单](./mds/1.md) 【[原文链接](/posts/mds/1.md)】
4 |
--------------------------------------------------------------------------------
/posts/mds/1.md:
--------------------------------------------------------------------------------
1 | # 深入分析五大开源RAG/LLM工具:让AI应用开发更简单
2 |
3 | 在人工智能(AI)快速发展的今天,**检索增强生成(RAG)**技术已成为构建智能AI应用的关键。本文将深入分析五个热门的开源RAG工具,帮助您选择最适合的解决方案。
4 |
5 | ## 为什么选择RAG框架?
6 |
7 | RAG技术通过将检索系统与生成模型相结合,能够显著提升AI应用的准确性和可靠性。选择合适的RAG框架可以:
8 |
9 | - 📉 **降低开发成本和复杂度**:简化开发流程,减少重复工作。
10 | - 📈 **提高AI应用的响应质量**:通过智能检索,提供更精准的答案。
11 | - 📚 **更好地处理和利用企业知识库**:高效整合企业内部的数据资源。
12 | - ✅ **确保AI回答的准确性和可靠性**:结合检索结果,避免生成错误信息。
13 | - 🔒 **保护数据隐私和安全**:支持本地部署,保障数据安全。
14 |
15 | ## 目录
16 |
17 | 1. [n8n_io:最强大的工作流自动化平台](#n8nio)
18 | 2. [AutoRAG:高效自动化RAG管道](#autorag)
19 | 3. [LLMWare:企业级LLM管理工具](#llmware)
20 | 4. [R2R:灵活的本地RAG应用框架](#r2r)
21 | 5. [Cognita:生产级模块化框架](#cognita)
22 | 6. [工具对比分析](#工具对比分析)
23 | 7. [选型建议](#选型建议)
24 | 8. [结论](#结论)
25 |
26 | ## n8n_io
27 |
28 | ### 概述
29 | [n8n_io](n8n.io/) 是一个强大的开源自动化平台,特别适合构建企业级RAG应用。通过整合**Ollama**的本地LLM服务和**Qdrant**作为向量数据库,提供了完整的AI应用开发解决方案。
30 |
31 | ### 核心优势
32 | - 🚀 **422+预置集成接口**:支持与现有系统的无缝对接。
33 | - 💡 **可视化工作流设计**:无需编码即可构建复杂工作流。
34 | - 🔒 **支持本地部署**:确保数据安全性。
35 | - 🤖 **AI工具集成**:与Ollama和Qdrant等AI工具无缝协作。
36 | - 📊 **丰富的数据处理能力**:支持多种数据源和格式。
37 |
38 | ### 最佳使用场景
39 | - 企业级AI工作流自动化。
40 | - 需要大量系统集成的项目。
41 | - 注重数据安全的组织。
42 | - RAG聊天机器人开发。
43 | - 复杂业务流程自动化。
44 |
45 | ### 局限性
46 | - 初期学习曲线较陡。
47 | - 对于不熟悉自动化平台的用户,配置可能较为复杂。
48 | - 某些高级功能需要付费订阅。
49 |
50 | ## AutoRAG
51 |
52 | ### 概述
53 | [AutoRAG](github.com/Marker-Inc-Korea/AutoRAG) 是一个高效的自动化RAG管道,旨在简化RAG系统的构建和部署过程。
54 |
55 | ### 核心优势
56 | - ⚡ **快速部署**:简化RAG系统的设置流程。
57 | - 🔍 **高效检索**:优化的检索算法提升查询速度和准确性。
58 | - 🤖 **模型集成**:支持多种生成模型,灵活选择最适合的模型。
59 | - 📈 **性能监控**:内置监控工具,实时跟踪系统表现。
60 |
61 | ### 最佳使用场景
62 | - 快速构建和测试RAG系统。
63 | - 需要多模型支持的应用。
64 | - 追求高性能检索和生成的项目。
65 |
66 | ### 局限性
67 | - 功能相对基础,适合初期开发。
68 | - 高级定制化需求可能需要额外开发。
69 |
70 | ## LLMWare
71 |
72 | ### 概述
73 | [LLMWare](www.llmware.ai/) 是一个企业级的LLM管理工具,专注于大规模生成模型的部署和管理。
74 |
75 | ### 核心优势
76 | - 🏢 **企业级支持**:专为大型企业设计,支持高并发和高可靠性需求。
77 | - ⚙️ **自动化管理**:简化模型的部署、更新和监控流程。
78 | - 🔒 **安全性**:提供高级的安全功能,确保数据和模型的安全。
79 | - 📊 **数据分析**:强大的分析工具,帮助理解模型表现和用户行为。
80 |
81 | ### 最佳使用场景
82 | - 大型企业的AI项目。
83 | - 需要高可靠性和安全性的应用。
84 | - 大规模生成模型的管理和优化。
85 |
86 | ### 局限性
87 | - 成本较高,不适合预算有限的项目。
88 | - 复杂的功能可能需要专业团队进行运维。
89 |
90 | ## R2R
91 |
92 | ### 概述
93 | [R2R](www.r2r-framework.com/) 是一个灵活的本地RAG应用框架,适合对本地部署有高要求的用户。
94 |
95 | ### 核心优势
96 | - 🛠️ **高度可定制**:用户可以根据需求定制框架功能。
97 | - 🌐 **本地部署**:确保数据在本地环境中处理,提升数据隐私。
98 | - 🔄 **稳定性**:经过多次优化,提供稳定的运行环境。
99 |
100 | ### 最佳使用场景
101 | - 对数据隐私有严格要求的行业,如政府和医疗。
102 | - 需要本地部署的企业AI应用。
103 | - 用户希望对RAG系统进行高度定制化的项目。
104 |
105 | ### 局限性
106 | - 本地部署可能需要更多的技术支持。
107 | - 配置和维护较为复杂,不适合初学者。
108 |
109 | ## Cognita
110 |
111 | ### 概述
112 | [Cognita](docs.cognita.ai/) 是一个生产级的模块化RAG框架,提供丰富的功能和高扩展性。
113 |
114 | ### 核心优势
115 | - 🔗 **模块化设计**:易于扩展和维护。
116 | - 🚀 **高效性能**:优化的性能设计,适合高负载应用。
117 | - 📈 **全面支持**:支持从原型到生产环境的完整生命周期管理。
118 | - 💼 **企业级功能**:适合大规模企业应用和复杂项目需求。
119 |
120 | ### 最佳使用场景
121 | - 需要从原型到生产环境无缝过渡的项目。
122 | - 大型企业和复杂应用场景。
123 | - 需要高度模块化和可扩展性的RAG系统。
124 |
125 | ### 局限性
126 | - 学习曲线较陡,需要一定的技术基础。
127 | - 资源占用较高,对环境配置要求较高。
128 |
129 | ## 工具对比分析
130 |
131 | 为了帮助您更好地选择适合的RAG框架,我们从以下几个方面进行了对比分析:
132 |
133 | 1. **性能指标**:使用召回率、精确度和F分数等指标评估各工具在RAG和LLM任务中的表现。
134 | 2. **集成能力**:评估工具与Ollama和Qdrant等系统的集成程度。
135 | 3. **用户界面与易用性**:考虑每个工具的用户界面设计和对非技术用户的友好程度。
136 | 4. **可扩展性与定制化**:评估工具的模块化程度和定制选项。
137 | 5. **离线功能**:特别是对于R2R,评估其离线工作的能力。
138 | 6. **行业趋势适应性**:考量每个工具如何适应当前RAG和LLM应用的趋势和最佳实践。
139 |
140 | ### 性能指标
141 | 通过综合分析各工具在不同任务中的表现,**AutoRAG**在高召回率和精确度方面表现出色,适合需要高准确性的应用。而**LLMWare**在处理大规模数据时展现了卓越的性能,适合企业级需求。
142 |
143 | ### 集成能力
144 | **n8n_io**凭借其丰富的预置集成接口,能够与多种系统无缝对接,极大地简化了工作流的构建过程。**Cognita**的模块化设计也使其在集成上具有很高的灵活性。
145 |
146 | ### 用户界面与易用性
147 | 对于非技术用户,**n8n_io**的可视化工作流设计提供了友好的用户体验。而**R2R**虽然功能强大,但界面相对复杂,需要一定的技术背景才能高效使用。
148 |
149 | ### 可扩展性与定制化
150 | **Cognita**的模块化架构使其在可扩展性和定制化方面表现优异,适合复杂和多变的项目需求。**AutoRAG**则提供了良好的定制选项,能够根据具体需求进行调整。
151 |
152 | ### 离线功能
153 | **R2R**在离线部署方面表现突出,确保了数据隐私和安全,适合对本地部署有高要求的应用场景。
154 |
155 | ### 行业趋势适应性
156 | **LLMWare**通过持续的更新和优化,紧跟AI和自然语言处理技术的
157 |
158 | ## 选型建议
159 |
160 | 根据不同场景,我们推荐:
161 |
162 | 1. **企业自动化需求** → **n8n_io**
163 | - 适合需要广泛集成的企业。
164 | - 重视工作流自动化的团队。
165 |
166 | 2. **性能优化需求** → **AutoRAG**
167 | - 追求最佳检索效果。
168 | - 有技术团队支持。
169 |
170 | 3. **快速部署需求** → **LLMWare**
171 | - 资源受限环境。
172 | - 需要快速验证概念。
173 |
174 | 4. **隐私安全需求** → **R2R**
175 | - 政府/金融机构。
176 | - 医疗健康领域。
177 |
178 | 5. **生产环境需求** → **Cognita**
179 | - 大型企业应用。
180 | - 需要高度定制化。
181 |
182 | ## 结论
183 |
184 | 在众多开源RAG/LLM工具中,**n8n_io**和**Cognita**因其强大的功能和灵活性脱颖而出。**n8n_io**以其广泛的集成能力和无代码工作流创建功能,适合开发者和AI爱好者快速构建应用;而**Cognita**则通过其模块化架构和对生产环境的全面支持,成为企业级项目的理想选择。
185 |
186 | **AutoRAG**、**LLMWare**和**R2R**虽然在信息量上略显不足,但各自在自动化、企业管理和多文件处理等方面展示出独特优势,适用于特定的应用场景。
187 |
188 | 在选择合适的RAG/LLM工具时,建议开发者和企业根据项目规模、技术能力以及具体功能需求,深入评估每个工具的特点,并进行实际测试。随着AI和自然语言处理技术的不断进步,这些工具也将持续演化,为用户提供更加强大和智能的解决方案。
189 |
190 | ## 参考文献
191 |
192 | 1. [n8n_io 官方网站](n8n.io/)
193 | 2. [AutoRAG 教程](docs.auto-rag.com/tutorial.html)
194 | 3. [LLMWare 平台介绍](dev.to/rohan_sharma/llmwareai-a-revolutionary-python-platform-that-will-accelerate-your-enterprise-3d84)
195 | 4. [R2R 在LinkedIn的介绍](www.linkedin.com/posts/shubhamsaboo_5-opensource-frameworks-to-build-llm-apps-activity-7244187619230683136-gfsq)
196 | 5. [Cognita 发布资讯](www.marktechpost.com/2024/04/18/truefoundry-releases-cognita-an-open-source-rag-framework-for-building-modular-and-production-ready-applications/)
197 |
198 | *注:本文将持续更新,欢迎分享您的使用经验和建议。*
--------------------------------------------------------------------------------
/src/n8n-fanyi-api/easy-fanyi-workflow.json:
--------------------------------------------------------------------------------
1 | {
2 | "name": "沉浸API+",
3 | "nodes": [
4 | {
5 | "parameters": {
6 | "assignments": {
7 | "assignments": [
8 | {
9 | "id": "a99545ff-05e4-4c97-a675-b9dddca5b36d",
10 | "name": "text",
11 | "value": "={{ $json.body.text_list }}",
12 | "type": "array"
13 | }
14 | ]
15 | },
16 | "options": {}
17 | },
18 | "id": "31a1b18e-ec7e-4431-8370-56c83dba82f1",
19 | "name": "Edit Fields1",
20 | "type": "n8n-nodes-base.set",
21 | "typeVersion": 3.4,
22 | "position": [
23 | 800,
24 | 180
25 | ]
26 | },
27 | {
28 | "parameters": {
29 | "options": {
30 | "separator": "\\n"
31 | }
32 | },
33 | "id": "0b302bf5-e48c-4067-9130-5068e4c0ddb3",
34 | "name": "Item List Output Parser",
35 | "type": "@n8n/n8n-nodes-langchain.outputParserItemList",
36 | "typeVersion": 1,
37 | "position": [
38 | 1220,
39 | 400
40 | ]
41 | },
42 | {
43 | "parameters": {
44 | "modelName": "models/gemini-1.5-flash-001-tuning",
45 | "options": {
46 | "temperature": 0.5
47 | }
48 | },
49 | "id": "faa0e85d-e35e-4e07-8632-a86fa8ac3a3b",
50 | "name": "Google Gemini Chat Model",
51 | "type": "@n8n/n8n-nodes-langchain.lmChatGoogleGemini",
52 | "typeVersion": 1,
53 | "position": [
54 | 1060,
55 | 400
56 | ],
57 | "credentials": {
58 | "googlePalmApi": {
59 | "id": "KCzMQsEgLKO6X3Qe",
60 | "name": "Google Gemini(PaLM) Api account"
61 | }
62 | }
63 | },
64 | {
65 | "parameters": {
66 | "fieldsToAggregate": {
67 | "fieldToAggregate": [
68 | {
69 | "fieldToAggregate": "response.text",
70 | "renameField": "=text"
71 | }
72 | ]
73 | },
74 | "options": {}
75 | },
76 | "id": "b3243c9b-095d-4609-a7de-4a213fde2a81",
77 | "name": "Aggregate1",
78 | "type": "n8n-nodes-base.aggregate",
79 | "typeVersion": 1,
80 | "position": [
81 | 1440,
82 | 180
83 | ]
84 | },
85 | {
86 | "parameters": {
87 | "assignments": {
88 | "assignments": [
89 | {
90 | "id": "6cb779a3-94c0-45c6-b02d-3f8f86a7fbcf",
91 | "name": "translations",
92 | "value": "={{ $json.text.map(text => ({\n \"detected_source_lang\": $('Webhook').item.json.body.source_lang,\n \"text\": text\n })) }}",
93 | "type": "array"
94 | }
95 | ]
96 | },
97 | "options": {}
98 | },
99 | "id": "8d0affc9-87dc-4e05-b013-06d7b87fe8b5",
100 | "name": "Edit Fields",
101 | "type": "n8n-nodes-base.set",
102 | "typeVersion": 3.4,
103 | "position": [
104 | 1640,
105 | 180
106 | ]
107 | },
108 | {
109 | "parameters": {
110 | "promptType": "define",
111 | "text": "={{ $json.text }}",
112 | "hasOutputParser": true,
113 | "messages": {
114 | "messageValues": [
115 | {
116 | "message": "只将提供的内容翻译为中文"
117 | }
118 | ]
119 | }
120 | },
121 | "id": "8e4037d9-4f59-4b80-ae6e-627592aa6058",
122 | "name": "Basic LLM Chain1",
123 | "type": "@n8n/n8n-nodes-langchain.chainLlm",
124 | "typeVersion": 1.4,
125 | "position": [
126 | 1060,
127 | 180
128 | ]
129 | },
130 | {
131 | "parameters": {
132 | "httpMethod": "POST",
133 | "path": "fanyiapi",
134 | "responseMode": "lastNode",
135 | "options": {}
136 | },
137 | "id": "82706a20-8b37-4c44-8a01-bf8b102308c8",
138 | "name": "Webhook",
139 | "type": "n8n-nodes-base.webhook",
140 | "typeVersion": 2,
141 | "position": [
142 | 580,
143 | 180
144 | ],
145 | "webhookId": "3de4477f-f5cc-4ef6-aa02-7d8a3027dc20"
146 | }
147 | ],
148 | "pinData": {},
149 | "connections": {
150 | "Edit Fields1": {
151 | "main": [
152 | [
153 | {
154 | "node": "Basic LLM Chain1",
155 | "type": "main",
156 | "index": 0
157 | }
158 | ]
159 | ]
160 | },
161 | "Item List Output Parser": {
162 | "ai_outputParser": [
163 | [
164 | {
165 | "node": "Basic LLM Chain1",
166 | "type": "ai_outputParser",
167 | "index": 0
168 | }
169 | ]
170 | ]
171 | },
172 | "Google Gemini Chat Model": {
173 | "ai_languageModel": [
174 | [
175 | {
176 | "node": "Basic LLM Chain1",
177 | "type": "ai_languageModel",
178 | "index": 0
179 | }
180 | ]
181 | ]
182 | },
183 | "Aggregate1": {
184 | "main": [
185 | [
186 | {
187 | "node": "Edit Fields",
188 | "type": "main",
189 | "index": 0
190 | }
191 | ]
192 | ]
193 | },
194 | "Basic LLM Chain1": {
195 | "main": [
196 | [
197 | {
198 | "node": "Aggregate1",
199 | "type": "main",
200 | "index": 0
201 | }
202 | ]
203 | ]
204 | },
205 | "Webhook": {
206 | "main": [
207 | [
208 | {
209 | "node": "Edit Fields1",
210 | "type": "main",
211 | "index": 0
212 | }
213 | ]
214 | ]
215 | }
216 | },
217 | "active": true,
218 | "settings": {
219 | "executionOrder": "v1"
220 | },
221 | "versionId": "d911c1dd-70f3-4d82-8ec0-a7292d1d1b5d",
222 | "meta": {
223 | "templateCredsSetupCompleted": true,
224 | "instanceId": "636396f02b6571e40d8fe91cba550515c0cdc0e7d314c210e00b02256375a796"
225 | },
226 | "id": "eGgX67kijOCxwR8h",
227 | "tags": []
228 | }
--------------------------------------------------------------------------------