├── .gitignore ├── README.md ├── assets ├── bolt-windows-ollama │ ├── 7.jpg │ └── 7.srt ├── cloud-studio-free │ ├── 14.jpg │ ├── 20.jpg │ ├── cloud-studio-logo-dark.7fff1da5.svg │ ├── screenshot-1731597304828.png │ └── screenshot-1731597438641.png ├── marscode │ ├── marscode.jpg │ ├── 相信你也会爱这个云IDE 国际版Marscode 开通32核CPU及64GRAM来不间断运行 - en.srt │ └── 相信你也会爱这个云IDE 国际版Marscode 开通32核CPU及64GRAM来不间断运行.srt ├── n8n-fanyi-api │ ├── api.png │ ├── api1.png │ ├── api2.png │ └── n8n.png ├── n8n │ └── workflow │ │ └── 2025.3.28.demo.json └── others │ ├── 15.jpg │ ├── 17.png │ ├── 23.png │ ├── 3.jpg │ ├── 32.png │ ├── 34.png │ ├── 35.jpg │ ├── 36-1.png │ ├── 36.jpg │ ├── 40.png │ ├── 41.png │ ├── 8.jpg │ └── 9.png ├── md ├── 1.md ├── 14.md ├── 15.md ├── 17.md ├── 2.md ├── 21.md ├── 23.md ├── 24.md ├── 25.md ├── 27.md ├── 3.md ├── 32.md ├── 34.md ├── 35.md ├── 36.md ├── 38.md ├── 40.md ├── 41.md ├── 52.md ├── 7.md ├── 8.md └── 9.md ├── posts ├── index.md └── mds │ └── 1.md └── src └── n8n-fanyi-api └── easy-fanyi-workflow.json /.gitignore: -------------------------------------------------------------------------------- 1 | 2 | .codegpt -------------------------------------------------------------------------------- /README.md: -------------------------------------------------------------------------------- 1 | # ai来事 videos 2 | 3 | ### B站/油管/小红书/抖音等自媒体视频相关[内容、资源等] 最新视频资源在最下方 4 | 5 | 交流群: 6 | 7 | 企微 https://qr61.cn/oohivs/qRp62U6 8 | 9 | Discord https://discord.gg/3JWMgKQznF 10 | 11 | ## 【[博客网站](/)】 12 | 13 | 1. [【N8N教程】沉浸式翻译_自定义API部署指南](./md/1.md) 【详细内容】 14 | 15 | 2. [【宝藏云IDE】MarsCode:云端编程新体验,免费64G内存+32核CPU等你冲🚀不间断运行 云端版cursor](./md/2.md) 【详细内容】 16 | 17 | 3. [主流Web框架在Cloudflare Workers的部署指南 Next.js/Remix/Vue/Astro/Solid/Svelte……](./md/3.md) 【[视频教程](https://www.bilibili.com/video/BV1sFSqYGEem/)】 18 | 19 | 7. [【bolt】本地部署的全栈开发平台,支持本地及众多API,本地一键生成应用,部署教程](./md/7.md)【[视频教程](https://www.bilibili.com/video/BV1V1DHYJE6h/)】 20 | 21 | 8. [永远在线的个人全栈ai开发平台部署教程,cloudflare pages+魔改强化版bolt+free ai api=全能开发](./md/8.md) 22 | 23 | 9. [平替cursor 免费最终AI编辑助手 Cline + litellm + Gpt-4o API 本地及云端部署教程](./md/9.md)【[视频教程](https://www.bilibili.com/video/BV1DJDDYfEfD/)】 24 | 25 | 10. [点评当前最值得用的Ai开发应用&最新懒人字幕翻译法【吹爆】CursorAI必备神器,一键搞定油管视频字幕](https://www.bilibili.com/video/BV1FBDqYgEQ4/) 26 | 27 | 11. [【全网首发】良心云Edgeone Pages部署博客教程,免费好用快速,国人版CF太良心,推荐1pages blog,感谢腾讯让大家人手一博客](https://github.com/aigem/1pages) 【[视频教程](https://www.bilibili.com/video/BV1QEmrYZEtt)】 28 | 29 | 12. [国内最新最舒适地使用GPT-4o的方式微软VSCode AI 工具箱用来狙击cursor?VSCode里的AI神器,免费GPT-4o轻松用](https://www.bilibili.com/video/BV1kLmbYGExa/) 30 | 31 | 13. [写代码杠杠的≈GPT4o 千问coder32B惊艳的Artifacts及本地部署测试 编程福音 Ai开发必备](https://www.bilibili.com/video/BV1VYUAYZEH7/) 【[DEMO](https://qwen.edge1.us.kg)】【[白嫖国内T4显卡主机 16G显存 8核32G内容](https://www.bilibili.com/video/BV1BJmSYFE2a/)】 32 | 33 | 14. [【闭眼入】免费GPU云电脑,云端算力T4显卡每月50000分钟免费时长 腾讯云免费AI算力,良心哭了](./md/14.md) 【[视频](https://www.bilibili.com/video/BV1BJmSYFE2a/)】 34 | 35 | 15. [帮你们试了,要装!windsurf Ai编程神器 体验极好,与curso不相上下,免费使用,速上。实战你们感兴趣的程序,来体验一下吧](./md/15.md) 【[视频教程](https://www.bilibili.com/video/BV1B3U7YuEcZ/)】 【[DEMO](https://1pics.edge1.us.kg/)】 36 | 37 | 16. [必装Ai神器 | ChatGPT Windows桌面版客户端免费开放使用|安装教程](https://www.bilibili.com/video/BV165UHYXEFE/) 38 | 39 | 17. [良心云Cloud studio免费GPU云主机上一键部署open webUI 脚本安装教程 | 一键安装运行 | 免费云主机 | 免费算力电脑 | 云端电脑](./md/17.md) 【[视频教程](https://www.bilibili.com/video/BV1tmSFY1ERb/)】 【[获取一键脚本](https://gf.bilibili.com/item/detail/1107198073)】 40 | 41 | 18. 海量模型的api 来取吧 | 各种大语言模型及API | 国内可用 | 背靠抱抱脸海量模型库 | 免费试用 【[视频教程](https://www.bilibili.com/video/BV1ftUDYiE7Y/)】 【[直达网址](https://glhf.chat)】【[免费搭建 web openUI](./md/17.md)】 42 | 43 | 19. 外接硬盘让M4 Mac Mini 256G秒变2T硬盘主机,劲省600刀 【[视频](https://www.bilibili.com/video/BV1dxBxYvEoE/)】 44 | 45 | 20. [一键安装comfyui在腾讯云Ai主机上 免费GPU 16G显存](./md/14.md) 【[视频教程](https://www.bilibili.com/video/BV1nMzNYHEd6/)】 【[获取一键脚本](https://github.com/aigem/aitools/)】 46 | 47 | 21. [【人人皆可Ai】给你AiPC一键安装ComfyUI 一键安装脚本及下载教程](./md/21.md) 【[视频教程](https://www.bilibili.com/video/BV13UBRYVEmX/)】 【[获取一键脚本]((https://gf.bilibili.com/item/detail/1107198073))】 48 | 49 | 22. 【吹爆】Windsurf 新升级 | MCP及图片支持 | 自动补全比之前好多了 | cursor替代 | 本地免费强大Ai编辑器 | 大佬都用来搞钱了 【[视频](https://www.bilibili.com/video/BV1F2zqYyEyA/)】 50 | 51 | 23. [超实用的AI工具和技巧分享&高级实用图片编辑工作流](./md/23.md) 【[视频链接](https://www.bilibili.com/video/BV1qf6wYkEKQ/)】【[工作流获取](https://gf.bilibili.com/item/detail/1107271073)】 52 | 53 | 32. gemini2.0 测试及本地使用、云端cline开发教程 cline+liteLLM+api 还有还强大好用的用法:你的ai代码编辑器+移动的vs code 【[视频](https://www.bilibili.com/video/BV1PuB5YmEhA/)】 【[详细内容](./md/32.md)】 54 | 55 | 34. 推荐两款超好用VPN,稳定 快速 免费好用 你会用得上的虚拟专用网络神器 ksa EasyTier 【[小红书视频](https://www.xiaohongshu.com/discovery/item/676423360000000014027b07?source=webshare&xhsshare=pc_web&xsec_token=ABzf-fhLZ0oyTNquAKp6YNFgPkCadC2a9ixPqggV3w3dU=&xsec_source=pc_share)】【[抖音视频](https://v.douyin.com/iUuBh1Mt/)】 【[详细内容](./md/34.md)】 56 | 57 | 35. 优雅解决Cursor试用期限制 cursor不能免费续?教你一行代码解决,继续免费试用【[视频教程](https://www.bilibili.com/video/BV1H3ktYtEUy/)】 【[相关代码及说明](./md/35.md)】 58 | 59 | 36. bolt.diy介绍及安装教程 【[视频教程](https://www.bilibili.com/video/BV1xHCgYDET4/)】【[DEMO](https://bolt.remix.us.kg/)】 【[详细内容](./md/36.md)】 60 | 61 | 39. ai做有趣事 爱做有趣事 [系列视频](https://www.bilibili.com/video/BV17q6WYTEtW/) 62 | 63 | 40. Deepseek v3 api + cline +cursor 【[视频教程](https://www.bilibili.com/video/BV11i6nYgEgS/)】 【[详细内容](./md/40.md)】 64 | 65 | 41. 四年磨一剑 浏览器里的桌面系统竟然这么丝滑 教你安装部署daedalOS 【[视频教程](https://www.bilibili.com/video/BV1GX6qYeEKw/)】 【[详细内容](./md/41.md)】 66 | 67 | 52. 本地免费部署deepseek R1模型快速拥有自己的RAG 【[视频教程](https://www.bilibili.com/video/BV1S6PCeuE2z/)】 【[详细内容](./md/52.md)】 68 | -------------------------------------------------------------------------------- /assets/bolt-windows-ollama/7.jpg: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/aigem/videos/f43eef97ec57be19e91d728d99fc3dbe433a4aac/assets/bolt-windows-ollama/7.jpg -------------------------------------------------------------------------------- /assets/bolt-windows-ollama/7.srt: -------------------------------------------------------------------------------- 1 | 1 2 | 00:00:00,766 --> 00:00:02,700 3 | 当v0出来的时候 4 | 5 | 2 6 | 00:00:02,800 --> 00:00:07,200 7 | 使用它一键生成网络程序和应用 8 | 9 | 3 10 | 00:00:07,200 --> 00:00:08,866 11 | 相当的高效率 12 | 13 | 4 14 | 00:00:08,866 --> 00:00:10,300 15 | 效果相当的好 16 | 17 | 5 18 | 00:00:10,366 --> 00:00:15,100 19 | 有没有本地免费部署的同类的平台呢 20 | 21 | 6 22 | 00:00:15,766 --> 00:00:19,400 23 | 是有的。之后出了一个Bolt.new 24 | 25 | 7 26 | 00:00:19,700 --> 00:00:23,166 27 | 全栈web应用开发平台 28 | 29 | 8 30 | 00:00:23,433 --> 00:00:28,866 31 | 它是可以本地免费部署 32 | 33 | 9 34 | 00:00:28,866 --> 00:00:32,900 35 | 但是它只支持Claude3.5的API 36 | 37 | 10 38 | 00:00:32,900 --> 00:00:34,100 39 | 相当昂贵 40 | 41 | 11 42 | 00:00:34,700 --> 00:00:39,433 43 | 直到这位老哥出的这一个开源的Bolt(支持其它API) 44 | 45 | 12 46 | 00:00:40,266 --> 00:00:43,300 47 | 看一下他比原版多了什么功能 48 | 49 | 13 50 | 00:00:43,433 --> 00:00:47,266 51 | 他支持Openrouter的API 52 | 53 | 14 54 | 00:00:47,766 --> 00:00:50,466 55 | 集成了Gemini的API 56 | 57 | 15 58 | 00:00:51,100 --> 00:00:55,433 59 | 还有欧拉玛的API也可以使用 60 | 61 | 16 62 | 00:00:56,500 --> 00:00:57,300 63 | 还有 64 | 65 | 17 66 | 00:00:58,800 --> 00:01:00,600 67 | 还有其他的一些功能 68 | 69 | 18 70 | 00:01:00,700 --> 00:01:04,066 71 | 比如下载项目文件代码 72 | 73 | 19 74 | 00:01:04,766 --> 00:01:09,100 75 | 然后呢还有 DeepSeek、Mistral的API 76 | 77 | 20 78 | 00:01:09,633 --> 00:01:14,166 79 | 还有openAI兼容的API都可以使用 80 | 81 | 21 82 | 00:01:15,800 --> 00:01:17,666 83 | 还能支持Docker部署 84 | 85 | 22 86 | 00:01:18,400 --> 00:01:23,100 87 | 还支持将项目文件同步到Github上 88 | 89 | 23 90 | 00:01:29,300 --> 00:01:34,833 91 | 我们现在在Windows本地部署这个Bolt 92 | 93 | 24 94 | 00:01:34,900 --> 00:01:37,800 95 | 我们首先要确认安装了pnpm 96 | 97 | 25 98 | 00:01:37,800 --> 00:01:40,233 99 | 看一下pnpm版本 100 | 101 | 26 102 | 00:01:40,366 --> 00:01:41,566 103 | 没有安装的话 104 | 105 | 27 106 | 00:01:41,566 --> 00:01:46,100 107 | 我视频下方提供的链接中 108 | 109 | 28 110 | 00:01:46,100 --> 00:01:49,466 111 | 有相关的安装步骤和安装代码 112 | 113 | 29 114 | 00:01:50,600 --> 00:01:57,966 115 | 好了然后我们要将项目复制进来 116 | 117 | 30 118 | 00:02:00,433 --> 00:02:03,066 119 | 复制这一句命令运行之后 120 | 121 | 31 122 | 00:02:03,066 --> 00:02:07,100 123 | 他就克隆仓库代码进来 124 | 125 | 32 126 | 00:02:10,433 --> 00:02:13,366 127 | 首次克隆失败 128 | 129 | 33 130 | 00:02:13,366 --> 00:02:15,566 131 | 因为我们的网络不通畅 132 | 133 | 34 134 | 00:02:16,200 --> 00:02:18,800 135 | 一般使用这一个软件(watt Toolkit)就可以了 136 | 137 | 35 138 | 00:02:18,800 --> 00:02:21,400 139 | 我们再试试一下 140 | 141 | 36 142 | 00:02:22,900 --> 00:02:25,433 143 | 好了已经克隆完成了 144 | 145 | 37 146 | 00:02:25,433 --> 00:02:27,866 147 | 我们进入根目录 148 | 149 | 38 150 | 00:02:32,033 --> 00:02:33,166 151 | 来到根目录 152 | 153 | 39 154 | 00:02:33,166 --> 00:02:34,500 155 | 来到根目录 156 | 157 | 40 158 | 00:02:37,766 --> 00:02:38,600 159 | 来到根目录 160 | 161 | 41 162 | 00:02:38,600 --> 00:02:43,900 163 | 我们使用第一个命令进行依赖的安装 164 | 165 | 42 166 | 00:02:48,600 --> 00:02:50,100 167 | 这个安装也挺快的 168 | 169 | 43 170 | 00:02:50,100 --> 00:02:54,400 171 | 因为我设置了pnpm的源为腾讯的 172 | 173 | 44 174 | 00:02:54,400 --> 00:02:56,800 175 | 源还是国内的比较快 176 | 177 | 45 178 | 00:02:57,633 --> 00:03:01,466 179 | 然后我们修改一下API的设置文件(.env.local) 180 | 181 | 46 182 | 00:03:03,766 --> 00:03:05,000 183 | 之后呢我们 184 | 185 | 47 186 | 00:03:06,400 --> 00:03:08,700 187 | 还是新建一个窗口 (cursor .) 188 | 189 | 48 190 | 00:03:09,033 --> 00:03:10,400 191 | 打开这个项目 192 | 193 | 49 194 | 00:03:14,300 --> 00:03:17,100 195 | 我们来看一下API的设置文件(.env.local) 196 | 197 | 50 198 | 00:03:19,166 --> 00:03:22,266 199 | 这里可以看到可以设置Groq的API 200 | 201 | 51 202 | 00:03:22,500 --> 00:03:23,766 203 | openai的API 204 | 205 | 52 206 | 00:03:25,200 --> 00:03:26,166 207 | Claude家的API 208 | 209 | 53 210 | 00:03:26,166 --> 00:03:29,300 211 | 还有openrouter的API 212 | 213 | 54 214 | 00:03:29,400 --> 00:03:30,800 215 | 谷歌家的API 216 | 217 | 55 218 | 00:03:32,000 --> 00:03:34,066 219 | 还有DeepSeek的API 220 | 221 | 56 222 | 00:03:36,200 --> 00:03:39,433 223 | 兼容openAI的API 224 | 225 | 57 226 | 00:03:40,066 --> 00:03:41,700 227 | 还有Mistral的API 228 | 229 | 58 230 | 00:03:42,433 --> 00:03:46,500 231 | 我们先是使用Mistral的API进行测试 232 | 233 | 59 234 | 00:03:46,900 --> 00:03:48,566 235 | Mistral的API 236 | 237 | 60 238 | 00:03:48,566 --> 00:03:54,000 239 | 大家可以直接按它的官网进行注册 240 | 241 | 61 242 | 00:03:54,000 --> 00:03:56,566 243 | 登录、创建API来使用 244 | 245 | 62 246 | 00:03:56,800 --> 00:04:00,300 247 | 国内都可以注册和登录的 248 | 249 | 63 250 | 00:04:00,300 --> 00:04:02,766 251 | 好了我们运行这一个命令 252 | 253 | 64 254 | 00:04:04,233 --> 00:04:07,666 255 | 打开程序来进行测试 256 | 257 | 65 258 | 00:04:10,200 --> 00:04:11,233 259 | 稍微等一下 260 | 261 | 66 262 | 00:04:11,233 --> 00:04:15,433 263 | 他就会提供本地运行的一个网址 264 | 265 | 67 266 | 00:04:15,566 --> 00:04:19,266 267 | 打开之后来到项目的主页 268 | 269 | 68 270 | 00:04:20,166 --> 00:04:22,266 271 | 看到熟悉的页面了吧 272 | 273 | 69 274 | 00:04:22,300 --> 00:04:26,966 275 | 这里我们看到众多API可以选择 276 | 277 | 70 278 | 00:04:26,966 --> 00:04:28,833 279 | 我们选择Mistral的API 280 | 281 | 71 282 | 00:04:29,800 --> 00:04:33,000 283 | 选择最大最好的那个模型 284 | 285 | 72 286 | 00:04:33,166 --> 00:04:36,566 287 | 我们让他帮我们写一个扫雷游戏 288 | 289 | 73 290 | 00:04:36,566 --> 00:04:39,633 291 | 看到他已经开始创建文件 292 | 293 | 74 294 | 00:04:40,766 --> 00:04:42,866 295 | 还有运行相关的命令 296 | 297 | 75 298 | 00:04:42,900 --> 00:04:46,600 299 | 好了看到他生成程序完成 300 | 301 | 76 302 | 00:04:46,900 --> 00:04:50,200 303 | 自动帮我们打开游戏的预览页面 304 | 305 | 77 306 | 00:04:50,200 --> 00:04:51,600 307 | 我们来测试一下 308 | 309 | 78 310 | 00:04:54,033 --> 00:04:55,166 311 | 哦 踩中雷了 312 | 313 | 79 314 | 00:04:56,066 --> 00:04:58,233 315 | 但是踩中雷之后还能继续玩 316 | 317 | 80 318 | 00:04:59,400 --> 00:05:00,833 319 | 这是个bug 320 | 321 | 81 322 | 00:05:01,633 --> 00:05:04,600 323 | 然后让他再帮我们修改一下 324 | 325 | 82 326 | 00:05:10,233 --> 00:05:13,466 327 | 修改完成我们再来测一下 328 | 329 | 83 330 | 00:05:13,466 --> 00:05:16,800 331 | 游戏刷新之后测试一下 332 | 333 | 84 334 | 00:05:17,866 --> 00:05:21,033 335 | 然后中雷之后就不能再点再继续玩游戏了 336 | 337 | 85 338 | 00:05:21,100 --> 00:05:26,233 339 | 好现在我们来设置一下ollama的API 340 | 341 | 86 342 | 00:05:26,633 --> 00:05:28,900 343 | 网址一般都是这一个 344 | 345 | 87 346 | 00:05:29,700 --> 00:05:33,300 347 | 如果还没下载安装ollama的 348 | 349 | 88 350 | 00:05:33,300 --> 00:05:35,433 351 | 就到官网去下载一下 352 | 353 | 89 354 | 00:05:35,433 --> 00:05:37,666 355 | 我这里是Windows版本的 356 | 357 | 90 358 | 00:05:38,200 --> 00:05:39,700 359 | 下载安装就行了 360 | 361 | 91 362 | 00:05:40,366 --> 00:05:44,000 363 | 大语言模型的安装也是很简单的啊 364 | 365 | 92 366 | 00:05:44,000 --> 00:05:44,766 367 | 设置好之后 368 | 369 | 93 370 | 00:05:44,766 --> 00:05:49,833 371 | 我们再来进行一下Bolt的运行 372 | 373 | 94 374 | 00:05:50,633 --> 00:05:55,900 375 | 我们输入pnpm dev来运行一下 376 | 377 | 95 378 | 00:05:56,800 --> 00:05:58,800 379 | 打开项目网址 380 | 381 | 96 382 | 00:05:58,800 --> 00:06:01,266 383 | 选择ollama的API 384 | 385 | 97 386 | 00:06:01,566 --> 00:06:03,566 387 | 我这里本地只安装了 388 | 389 | 98 390 | 00:06:03,566 --> 00:06:06,266 391 | qwen(千问)2.5的一个模型 392 | 393 | 99 394 | 00:06:06,466 --> 00:06:07,700 395 | 我来测试一下 396 | 397 | 100 398 | 00:06:07,700 --> 00:06:08,800 399 | 他出错了 400 | 401 | 101 402 | 00:06:09,233 --> 00:06:10,666 403 | 看一下什么原因 404 | 405 | 102 406 | 00:06:11,100 --> 00:06:13,600 407 | 他说缺少这一个(anthropic)API key 408 | 409 | 103 410 | 00:06:14,266 --> 00:06:17,166 411 | 所以我们随便输入一个key 412 | 413 | 104 414 | 00:06:17,433 --> 00:06:19,666 415 | 再来进行测试 416 | 417 | 105 418 | 00:06:19,966 --> 00:06:22,366 419 | 我们再次运行这一个程序 420 | 421 | 106 422 | 00:06:24,000 --> 00:06:26,633 423 | 这一次还是选择ollama的API 424 | 425 | 107 426 | 00:06:28,000 --> 00:06:30,700 427 | 好 我们来问一个问题 428 | 429 | 108 430 | 00:06:30,900 --> 00:06:37,000 431 | 让他帮我生成一个居中的div块 432 | 433 | 109 434 | 00:06:38,433 --> 00:06:40,833 435 | 好了,看到他成功了 436 | 437 | 110 438 | 00:06:40,833 --> 00:06:43,466 439 | 我们新建一个对话 440 | 441 | 111 442 | 00:06:43,700 --> 00:06:48,600 443 | 让他帮我写一个flask的示范程序 444 | 445 | 112 446 | 00:06:51,000 --> 00:06:55,166 447 | 之后他就正常的在运行(生成) 448 | 449 | 113 450 | 00:06:56,366 --> 00:06:57,900 451 | 但是有一个不正常的 452 | 453 | 114 454 | 00:06:57,900 --> 00:07:02,300 455 | 就是没有看到他自动生成相关的文件 456 | 457 | 115 458 | 00:07:04,066 --> 00:07:05,600 459 | 所以也不会Preview 460 | 461 | 116 462 | 00:07:06,000 --> 00:07:09,400 463 | 就说也不会预览生成的应用 464 | 465 | 117 466 | 00:07:09,400 --> 00:07:09,800 467 | 好了 468 | 469 | 118 470 | 00:07:09,800 --> 00:07:13,066 471 | 我们可以看右手边这里的下载代码 472 | 473 | 119 474 | 00:07:13,500 --> 00:07:14,700 475 | 还有同步文件 476 | 477 | 120 478 | 00:07:14,700 --> 00:07:16,366 479 | 还有发布到Github 480 | 481 | 121 482 | 00:07:16,600 --> 00:07:18,100 483 | 都是这一个 484 | 485 | 122 486 | 00:07:18,233 --> 00:07:21,666 487 | 开源项目比原项目多的功能 488 | 489 | 123 490 | 00:07:22,166 --> 00:07:24,100 491 | 增加的功能哦 492 | 493 | 124 494 | 00:07:24,800 --> 00:07:27,866 495 | 现在对本次部署进行总结 496 | 497 | 125 498 | 00:07:27,966 --> 00:07:29,633 499 | 首先这一个开源Bolt 500 | 501 | 126 502 | 00:07:29,633 --> 00:07:31,700 503 | 支持众多远程API 504 | 505 | 127 506 | 00:07:32,433 --> 00:07:37,233 507 | 我们使用了国内可以申请到的Mistral的API 508 | 509 | 128 510 | 00:07:37,233 --> 00:07:38,266 511 | 进行测试 512 | 513 | 129 514 | 00:07:38,600 --> 00:07:41,500 515 | 功能和预览等都正常 516 | 517 | 130 518 | 00:07:41,966 --> 00:07:45,066 519 | 我们下期视频要在Bolt中使用 520 | 521 | 131 522 | 00:07:45,066 --> 00:07:47,900 523 | 使用ChatGPT-4o的免费API 524 | 525 | 132 526 | 00:07:48,800 --> 00:07:49,900 527 | 请关注我! 528 | 529 | 133 530 | 00:07:50,633 --> 00:07:51,000 531 | 然后 532 | 533 | 134 534 | 00:07:51,000 --> 00:07:55,633 535 | 我们看到这个本地ollama的设置中 536 | 537 | 135 538 | 00:07:56,700 --> 00:07:59,566 539 | 除了设置好Base URL之外 540 | 541 | 136 542 | 00:08:00,033 --> 00:08:04,966 543 | 它还需要在这一个anthropic API key中进行设置 544 | 545 | 137 546 | 00:08:05,766 --> 00:08:07,500 547 | 随便输入内容就行 548 | 549 | 138 550 | 00:08:07,566 --> 00:08:09,866 551 | 不知道以后版本会不会改进 552 | 553 | 139 554 | 00:08:09,866 --> 00:08:12,666 555 | 现在最新版本就是要这样设置 556 | 557 | 140 558 | 00:08:12,666 --> 00:08:14,600 559 | 才能正常使用ollama 560 | 561 | 141 562 | 00:08:14,600 --> 00:08:18,066 563 | 但是呢我使用的是qwen(千问)2.5的模型 564 | 565 | 142 566 | 00:08:18,233 --> 00:08:20,766 567 | 它竟然并不支持生存预览 568 | 569 | 143 570 | 00:08:21,600 --> 00:08:24,400 571 | 估计可能是要支持工具调用 572 | 573 | 144 574 | 00:08:24,400 --> 00:08:26,766 575 | 的一些大语言模型 576 | 577 | 145 578 | 00:08:26,766 --> 00:08:28,400 579 | 才能成预览吧 580 | 581 | 146 582 | 00:08:28,666 --> 00:08:32,500 583 | 之后我将在ollama的更多模型中找出 584 | 585 | 147 586 | 00:08:32,500 --> 00:08:36,666 587 | 可以支持Bolt使用的一些大语言模型 588 | 589 | 148 590 | 00:08:36,900 --> 00:08:39,600 591 | 好了本期视频就到这里了 592 | 593 | 149 594 | 00:08:40,033 --> 00:08:42,233 595 | 如果觉得有帮助的话 596 | 597 | 150 598 | 00:08:42,233 --> 00:08:44,766 599 | 请给我个关注和点赞 600 | 601 | 151 602 | 00:08:44,766 --> 00:08:47,366 603 | 谢谢。我们下期视频再见 604 | 605 | -------------------------------------------------------------------------------- /assets/cloud-studio-free/14.jpg: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/aigem/videos/f43eef97ec57be19e91d728d99fc3dbe433a4aac/assets/cloud-studio-free/14.jpg -------------------------------------------------------------------------------- /assets/cloud-studio-free/20.jpg: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/aigem/videos/f43eef97ec57be19e91d728d99fc3dbe433a4aac/assets/cloud-studio-free/20.jpg -------------------------------------------------------------------------------- /assets/cloud-studio-free/cloud-studio-logo-dark.7fff1da5.svg: -------------------------------------------------------------------------------- 1 | -------------------------------------------------------------------------------- /assets/cloud-studio-free/screenshot-1731597304828.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/aigem/videos/f43eef97ec57be19e91d728d99fc3dbe433a4aac/assets/cloud-studio-free/screenshot-1731597304828.png -------------------------------------------------------------------------------- /assets/cloud-studio-free/screenshot-1731597438641.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/aigem/videos/f43eef97ec57be19e91d728d99fc3dbe433a4aac/assets/cloud-studio-free/screenshot-1731597438641.png -------------------------------------------------------------------------------- /assets/marscode/marscode.jpg: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/aigem/videos/f43eef97ec57be19e91d728d99fc3dbe433a4aac/assets/marscode/marscode.jpg -------------------------------------------------------------------------------- /assets/marscode/相信你也会爱这个云IDE 国际版Marscode 开通32核CPU及64GRAM来不间断运行 - en.srt: -------------------------------------------------------------------------------- 1 | 1 2 | 00:00:00,166 --> 00:00:03,066 3 | 大家好今天给大家推荐一款 4 | 5 | 2 6 | 00:00:03,466 --> 00:00:06,366 7 | 非常值得一用的云IDE 8 | 9 | 3 10 | 00:00:07,066 --> 00:00:09,333 11 | 豆包旗下的MarsCode 12 | 13 | 4 14 | 00:00:09,366 --> 00:00:12,500 15 | 有人说是云端版的Cursor 16 | 17 | 5 18 | 00:00:12,533 --> 00:00:13,500 19 | 但是呢 20 | 21 | 6 22 | 00:00:13,700 --> 00:00:17,633 23 | AI功能生成功能肯定没有Cursor这么强 24 | 25 | 7 26 | 00:00:18,100 --> 00:00:21,133 27 | 那为什么我们还推荐它呢 28 | 29 | 8 30 | 00:00:21,166 --> 00:00:23,566 31 | 因为它开箱即用 32 | 33 | 9 34 | 00:00:23,566 --> 00:00:25,700 35 | 打开网页直接使用 36 | 37 | 10 38 | 00:00:25,866 --> 00:00:29,633 39 | 首先他文件都是持久化的 40 | 41 | 11 42 | 00:00:30,033 --> 00:00:32,500 43 | 因为他给了一定的空间给你 44 | 45 | 12 46 | 00:00:32,500 --> 00:00:33,133 47 | 之后呢 48 | 49 | 13 50 | 00:00:33,133 --> 00:00:37,300 51 | 他运行这一个云IDE是没有时间限制的 52 | 53 | 14 54 | 00:00:37,433 --> 00:00:41,166 55 | 他还有另外一个版本就是国际版的 56 | 57 | 15 58 | 00:00:41,533 --> 00:00:45,033 59 | 相对国内版他不需要提供手机号 60 | 61 | 16 62 | 00:00:45,033 --> 00:00:48,466 63 | 只需一个邮箱就能直接注册使用 64 | 65 | 17 66 | 00:00:48,866 --> 00:00:53,333 67 | 加上他的网络环境非常的国际化 68 | 69 | 18 70 | 00:00:53,733 --> 00:01:00,100 71 | 所以呢编程写项目运作起来非常顺滑 72 | 73 | 19 74 | 00:01:00,166 --> 00:01:03,966 75 | 所以推荐大家使用国际版的 76 | 77 | 20 78 | 00:01:04,366 --> 00:01:06,500 79 | 国际版的在国内打开 80 | 81 | 21 82 | 00:01:06,500 --> 00:01:08,900 83 | 会自动跳转到国内版本 84 | 85 | 22 86 | 00:01:08,900 --> 00:01:12,666 87 | 所以呢大家网络需要好一点才能使用 88 | 89 | 23 90 | 00:01:12,733 --> 00:01:16,300 91 | 之后我用国际版的来展示一下 92 | 93 | 24 94 | 00:01:16,300 --> 00:01:17,366 95 | 如何开通 96 | 97 | 25 98 | 00:01:17,366 --> 00:01:22,266 99 | 炸裂的64G内存和32核CPU的服务器 100 | 101 | 26 102 | 00:01:22,266 --> 00:01:24,100 103 | 给大家免费使用 104 | 105 | 27 106 | 00:01:24,166 --> 00:01:27,933 107 | 还是24小时无间断使用的那种 108 | 109 | 28 110 | 00:01:27,933 --> 00:01:29,800 111 | 好了我们正式开始 112 | 113 | 29 114 | 00:01:30,266 --> 00:01:33,033 115 | 我们新建一个项目 116 | 117 | 30 118 | 00:01:33,333 --> 00:01:36,600 119 | 之后我们选择比较熟悉的Python 120 | 121 | 31 122 | 00:01:37,400 --> 00:01:38,633 123 | 创建项目 124 | 125 | 32 126 | 00:01:40,466 --> 00:01:44,133 127 | 右手边的AI功能我们基本都不怎么用 128 | 129 | 33 130 | 00:01:45,033 --> 00:01:46,266 131 | 因为有点鸡肋 132 | 133 | 34 134 | 00:01:46,533 --> 00:01:48,733 135 | 看到它部署完成 136 | 137 | 35 138 | 00:01:48,733 --> 00:01:50,366 139 | 我们来测试一下 140 | 141 | 36 142 | 00:01:50,366 --> 00:01:53,733 143 | 他自带的示范程序 144 | 145 | 37 146 | 00:01:53,733 --> 00:01:55,266 147 | 我们来部署一下 148 | 149 | 38 150 | 00:01:59,766 --> 00:02:02,000 151 | 好了我们看到他部署完成了 152 | 153 | 39 154 | 00:02:02,000 --> 00:02:05,266 155 | 我们在浏览器中打开来看一下 156 | 157 | 40 158 | 00:02:05,766 --> 00:02:07,533 159 | Hello World 好了没问题 160 | 161 | 41 162 | 00:02:08,333 --> 00:02:10,033 163 | 我们输入这一行 164 | 165 | 42 166 | 00:02:10,800 --> 00:02:11,600 167 | 命令 (sudo su) 168 | 169 | 43 170 | 00:02:14,166 --> 00:02:15,600 171 | 来到root权限 172 | 173 | 44 174 | 00:02:15,833 --> 00:02:18,733 175 | 我们测试一下 176 | 177 | 45 178 | 00:02:20,933 --> 00:02:25,233 179 | 看到这一个就证明他没有使用APT 180 | 181 | 46 182 | 00:02:25,733 --> 00:02:28,133 183 | 就不能自由安装各种软件 184 | 185 | 47 186 | 00:02:28,133 --> 00:02:32,466 187 | 我们现在只需要输入这一行代码 188 | 189 | 48 190 | 00:02:33,200 --> 00:02:34,066 191 | 运行它 192 | 193 | 49 194 | 00:02:35,866 --> 00:02:38,133 195 | 嗯看到他没有运行 196 | 197 | 50 198 | 00:02:38,200 --> 00:02:40,333 199 | 他已经生成了相关文件( su.sh ) 200 | 201 | 51 202 | 00:02:41,633 --> 00:02:43,800 203 | 好了我们来运行一下( bash su.sh ) 204 | 205 | 52 206 | 00:02:46,600 --> 00:02:48,833 207 | 运行这一个命令之后 208 | 209 | 53 210 | 00:02:50,166 --> 00:02:52,133 211 | 他就帮我们获取到 (proot) 212 | 213 | 54 214 | 00:02:53,733 --> 00:02:58,766 215 | 一个可以自由安装软件的一个后台 216 | 217 | 55 218 | 00:03:00,333 --> 00:03:02,000 219 | 好我们再来看一下 220 | 221 | 56 222 | 00:03:05,433 --> 00:03:08,400 223 | 现在已经可以使用APT命令了 224 | 225 | 57 226 | 00:03:09,333 --> 00:03:11,166 227 | 我们来安装一个 228 | 229 | 58 230 | 00:03:14,333 --> 00:03:17,033 231 | 我们来安装Neofetch软件 232 | 233 | 59 234 | 00:03:17,766 --> 00:03:18,566 235 | 打开一下( neofetch ) 236 | 237 | 60 238 | 00:03:18,566 --> 00:03:22,733 239 | 查看这个服务器的相关的硬件配置 240 | 241 | 61 242 | 00:03:24,533 --> 00:03:25,466 243 | 安装完成 244 | 245 | 62 246 | 00:03:25,466 --> 00:03:27,366 247 | 我们来运行一下 248 | 249 | 63 250 | 00:03:30,033 --> 00:03:31,866 251 | 好大家可以看到这里 252 | 253 | 64 254 | 00:03:32,866 --> 00:03:33,966 255 | 32核CPU 256 | 257 | 65 258 | 00:03:35,333 --> 00:03:39,566 259 | 和64G内存 260 | 261 | 66 262 | 00:03:40,000 --> 00:03:42,200 263 | 运行Htop来看一下 264 | 265 | 67 266 | 00:03:42,866 --> 00:03:47,166 267 | 32核的一个CPU核心数 268 | 269 | 68 270 | 00:03:48,766 --> 00:03:50,866 271 | 好了本期视频就到这里了 272 | 273 | 69 274 | 00:03:50,866 --> 00:03:52,200 275 | 请关注我 276 | 277 | 70 278 | 00:03:52,400 --> 00:03:53,200 279 | 之后 280 | 281 | 71 282 | 00:03:53,400 --> 00:03:54,766 283 | 再来教大家 284 | 285 | 72 286 | 00:03:54,766 --> 00:03:58,166 287 | 如何将这一个在线服务 288 | 289 | 73 290 | 00:03:58,166 --> 00:04:01,233 291 | 进行24小时的保活(保持在线) 292 | 293 | 74 294 | 00:04:01,733 --> 00:04:03,266 295 | 之后呢就在上面 296 | 297 | 75 298 | 00:04:03,266 --> 00:04:04,766 299 | 就可以不间断的 300 | 301 | 76 302 | 00:04:05,733 --> 00:04:08,033 303 | 使用自己部署的服务了 304 | 305 | 77 306 | 00:04:08,200 --> 00:04:10,466 307 | 24小时不间断 308 | 309 | 78 310 | 00:04:11,333 --> 00:04:12,133 311 | 好了 312 | 313 | 79 314 | 00:04:12,733 --> 00:04:13,266 315 | 再见 316 | 317 | 80 318 | 00:04:13,266 --> 00:04:15,166 319 | 我们下期视频再见 320 | 321 | -------------------------------------------------------------------------------- /assets/marscode/相信你也会爱这个云IDE 国际版Marscode 开通32核CPU及64GRAM来不间断运行.srt: -------------------------------------------------------------------------------- 1 | 1 2 | 00:00:00,166 --> 00:00:03,066 3 | 大家好今天给大家推荐一款 4 | 5 | 2 6 | 00:00:03,466 --> 00:00:06,366 7 | 非常值得一用的云IDE 8 | 9 | 3 10 | 00:00:07,066 --> 00:00:09,333 11 | 豆包旗下的MarsCode 12 | 13 | 4 14 | 00:00:09,366 --> 00:00:12,500 15 | 有人说是云端版的Cursor 16 | 17 | 5 18 | 00:00:12,533 --> 00:00:13,500 19 | 但是呢 20 | 21 | 6 22 | 00:00:13,700 --> 00:00:17,633 23 | AI功能生成功能肯定没有Cursor这么强 24 | 25 | 7 26 | 00:00:18,100 --> 00:00:21,133 27 | 那为什么我们还推荐它呢 28 | 29 | 8 30 | 00:00:21,166 --> 00:00:23,566 31 | 因为它开箱即用 32 | 33 | 9 34 | 00:00:23,566 --> 00:00:25,700 35 | 打开网页直接使用 36 | 37 | 10 38 | 00:00:25,866 --> 00:00:29,633 39 | 首先他文件都是持久化的 40 | 41 | 11 42 | 00:00:30,033 --> 00:00:32,500 43 | 因为他给了一定的空间给你 44 | 45 | 12 46 | 00:00:32,500 --> 00:00:33,133 47 | 之后呢 48 | 49 | 13 50 | 00:00:33,133 --> 00:00:37,300 51 | 他运行这一个云IDE是没有时间限制的 52 | 53 | 14 54 | 00:00:37,433 --> 00:00:41,166 55 | 他还有另外一个版本就是国际版的 56 | 57 | 15 58 | 00:00:41,533 --> 00:00:45,033 59 | 相对国内版他不需要提供手机号 60 | 61 | 16 62 | 00:00:45,033 --> 00:00:48,466 63 | 只需一个邮箱就能直接注册使用 64 | 65 | 17 66 | 00:00:48,866 --> 00:00:53,333 67 | 加上他的网络环境非常的国际化 68 | 69 | 18 70 | 00:00:53,733 --> 00:01:00,100 71 | 所以呢编程写项目运作起来非常顺滑 72 | 73 | 19 74 | 00:01:00,166 --> 00:01:03,966 75 | 所以推荐大家使用国际版的 76 | 77 | 20 78 | 00:01:04,366 --> 00:01:06,500 79 | 国际版的在国内打开 80 | 81 | 21 82 | 00:01:06,500 --> 00:01:08,900 83 | 会自动跳转到国内版本 84 | 85 | 22 86 | 00:01:08,900 --> 00:01:12,666 87 | 所以呢大家网络需要好一点才能使用 88 | 89 | 23 90 | 00:01:12,733 --> 00:01:16,300 91 | 之后我用国际版的来展示一下 92 | 93 | 24 94 | 00:01:16,300 --> 00:01:17,366 95 | 如何开通 96 | 97 | 25 98 | 00:01:17,366 --> 00:01:22,266 99 | 炸裂的64G内存和32核CPU的服务器 100 | 101 | 26 102 | 00:01:22,266 --> 00:01:24,100 103 | 给大家免费使用 104 | 105 | 27 106 | 00:01:24,166 --> 00:01:27,933 107 | 还是24小时无间断使用的那种 108 | 109 | 28 110 | 00:01:27,933 --> 00:01:29,800 111 | 好了我们正式开始 112 | 113 | 29 114 | 00:01:30,266 --> 00:01:33,033 115 | 我们新建一个项目 116 | 117 | 30 118 | 00:01:33,333 --> 00:01:36,600 119 | 之后我们选择比较熟悉的Python 120 | 121 | 31 122 | 00:01:37,400 --> 00:01:38,633 123 | 创建项目 124 | 125 | 32 126 | 00:01:40,466 --> 00:01:44,133 127 | 右手边的AI功能我们基本都不怎么用 128 | 129 | 33 130 | 00:01:45,033 --> 00:01:46,266 131 | 因为有点鸡肋 132 | 133 | 34 134 | 00:01:46,533 --> 00:01:48,733 135 | 看到它部署完成 136 | 137 | 35 138 | 00:01:48,733 --> 00:01:50,366 139 | 我们来测试一下 140 | 141 | 36 142 | 00:01:50,366 --> 00:01:53,733 143 | 他自带的示范程序 144 | 145 | 37 146 | 00:01:53,733 --> 00:01:55,266 147 | 我们来部署一下 148 | 149 | 38 150 | 00:01:59,766 --> 00:02:02,000 151 | 好了我们看到他部署完成了 152 | 153 | 39 154 | 00:02:02,000 --> 00:02:05,266 155 | 我们在浏览器中打开来看一下 156 | 157 | 40 158 | 00:02:05,766 --> 00:02:07,533 159 | Hello World 好了没问题 160 | 161 | 41 162 | 00:02:08,333 --> 00:02:10,033 163 | 我们输入这一行 164 | 165 | 42 166 | 00:02:10,800 --> 00:02:11,600 167 | 命令 (sudo su) 168 | 169 | 43 170 | 00:02:14,166 --> 00:02:15,600 171 | 来到root权限 172 | 173 | 44 174 | 00:02:15,833 --> 00:02:18,733 175 | 我们测试一下 176 | 177 | 45 178 | 00:02:20,933 --> 00:02:25,233 179 | 看到这一个就证明他没有使用APT 180 | 181 | 46 182 | 00:02:25,733 --> 00:02:28,133 183 | 就不能自由安装各种软件 184 | 185 | 47 186 | 00:02:28,133 --> 00:02:32,466 187 | 我们现在只需要输入这一行代码 188 | 189 | 48 190 | 00:02:33,200 --> 00:02:34,066 191 | 运行它 192 | 193 | 49 194 | 00:02:35,866 --> 00:02:38,133 195 | 嗯看到他没有运行 196 | 197 | 50 198 | 00:02:38,200 --> 00:02:40,333 199 | 他已经生成了相关文件( su.sh ) 200 | 201 | 51 202 | 00:02:41,633 --> 00:02:43,800 203 | 好了我们来运行一下( bash su.sh ) 204 | 205 | 52 206 | 00:02:46,600 --> 00:02:48,833 207 | 运行这一个命令之后 208 | 209 | 53 210 | 00:02:50,166 --> 00:02:52,133 211 | 他就帮我们获取到 (proot) 212 | 213 | 54 214 | 00:02:53,733 --> 00:02:58,766 215 | 一个可以自由安装软件的一个后台 216 | 217 | 55 218 | 00:03:00,333 --> 00:03:02,000 219 | 好我们再来看一下 220 | 221 | 56 222 | 00:03:05,433 --> 00:03:08,400 223 | 现在已经可以使用APT命令了 224 | 225 | 57 226 | 00:03:09,333 --> 00:03:11,166 227 | 我们来安装一个 228 | 229 | 58 230 | 00:03:14,333 --> 00:03:17,033 231 | 我们来安装Neofetch软件 232 | 233 | 59 234 | 00:03:17,766 --> 00:03:18,566 235 | 打开一下( neofetch ) 236 | 237 | 60 238 | 00:03:18,566 --> 00:03:22,733 239 | 查看这个服务器的相关的硬件配置 240 | 241 | 61 242 | 00:03:24,533 --> 00:03:25,466 243 | 安装完成 244 | 245 | 62 246 | 00:03:25,466 --> 00:03:27,366 247 | 我们来运行一下 248 | 249 | 63 250 | 00:03:30,033 --> 00:03:31,866 251 | 好大家可以看到这里 252 | 253 | 64 254 | 00:03:32,866 --> 00:03:33,966 255 | 32核CPU 256 | 257 | 65 258 | 00:03:35,333 --> 00:03:39,566 259 | 和64G内存 260 | 261 | 66 262 | 00:03:40,000 --> 00:03:42,200 263 | 运行Htop来看一下 264 | 265 | 67 266 | 00:03:42,866 --> 00:03:47,166 267 | 32核的一个CPU核心数 268 | 269 | 68 270 | 00:03:48,766 --> 00:03:50,866 271 | 好了本期视频就到这里了 272 | 273 | 69 274 | 00:03:50,866 --> 00:03:52,200 275 | 请关注我 276 | 277 | 70 278 | 00:03:52,400 --> 00:03:53,200 279 | 之后 280 | 281 | 71 282 | 00:03:53,400 --> 00:03:54,766 283 | 再来教大家 284 | 285 | 72 286 | 00:03:54,766 --> 00:03:58,166 287 | 如何将这一个在线服务 288 | 289 | 73 290 | 00:03:58,166 --> 00:04:01,233 291 | 进行24小时的保活(保持在线) 292 | 293 | 74 294 | 00:04:01,733 --> 00:04:03,266 295 | 之后呢就在上面 296 | 297 | 75 298 | 00:04:03,266 --> 00:04:04,766 299 | 就可以不间断的 300 | 301 | 76 302 | 00:04:05,733 --> 00:04:08,033 303 | 使用自己部署的服务了 304 | 305 | 77 306 | 00:04:08,200 --> 00:04:10,466 307 | 24小时不间断 308 | 309 | 78 310 | 00:04:11,333 --> 00:04:12,133 311 | 好了 312 | 313 | 79 314 | 00:04:12,733 --> 00:04:13,266 315 | 再见 316 | 317 | 80 318 | 00:04:13,266 --> 00:04:15,166 319 | 我们下期视频再见 320 | 321 | -------------------------------------------------------------------------------- /assets/n8n-fanyi-api/api.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/aigem/videos/f43eef97ec57be19e91d728d99fc3dbe433a4aac/assets/n8n-fanyi-api/api.png -------------------------------------------------------------------------------- /assets/n8n-fanyi-api/api1.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/aigem/videos/f43eef97ec57be19e91d728d99fc3dbe433a4aac/assets/n8n-fanyi-api/api1.png -------------------------------------------------------------------------------- /assets/n8n-fanyi-api/api2.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/aigem/videos/f43eef97ec57be19e91d728d99fc3dbe433a4aac/assets/n8n-fanyi-api/api2.png -------------------------------------------------------------------------------- /assets/n8n-fanyi-api/n8n.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/aigem/videos/f43eef97ec57be19e91d728d99fc3dbe433a4aac/assets/n8n-fanyi-api/n8n.png -------------------------------------------------------------------------------- /assets/n8n/workflow/2025.3.28.demo.json: -------------------------------------------------------------------------------- 1 | { 2 | "name": "My workflow OK", 3 | "nodes": [ 4 | { 5 | "parameters": {}, 6 | "type": "n8n-nodes-base.manualTrigger", 7 | "typeVersion": 1, 8 | "position": [ 9 | -280, 10 | 20 11 | ], 12 | "id": "740218c6-946a-498b-aa48-628e84df4fc9", 13 | "name": "When clicking 'Test workflow'" 14 | }, 15 | { 16 | "parameters": { 17 | "method": "POST", 18 | "url": "https://api.siliconflow.cn/v1/images/generations", 19 | "sendHeaders": true, 20 | "headerParameters": { 21 | "parameters": [ 22 | { 23 | "name": "Authorization", 24 | "value": "Bearer sk-bvigddkdomxswrssufflrzgviikwhmmgdlfvblvxvibfvcwm" 25 | } 26 | ] 27 | }, 28 | "sendBody": true, 29 | "bodyParameters": { 30 | "parameters": [ 31 | { 32 | "name": "model", 33 | "value": "Kwai-Kolors/Kolors" 34 | }, 35 | { 36 | "name": "prompt", 37 | "value": "={{ $json.text }}" 38 | }, 39 | { 40 | "name": "image_size", 41 | "value": "1024x1024" 42 | }, 43 | { 44 | "name": "batch_size", 45 | "value": "1" 46 | }, 47 | { 48 | "name": "num_inference_steps", 49 | "value": "20" 50 | }, 51 | { 52 | "name": "guidance_scale", 53 | "value": "7.5" 54 | } 55 | ] 56 | }, 57 | "options": {} 58 | }, 59 | "type": "n8n-nodes-base.httpRequest", 60 | "typeVersion": 4.2, 61 | "position": [ 62 | 1240, 63 | 640 64 | ], 65 | "id": "f23faffb-bb86-423b-909d-888052e647bc", 66 | "name": "硅基kolors生图" 67 | }, 68 | { 69 | "parameters": { 70 | "method": "POST", 71 | "url": "https://ttsapi.site/v1/audio/speech", 72 | "sendBody": true, 73 | "bodyParameters": { 74 | "parameters": [ 75 | { 76 | "name": "input", 77 | "value": "={{ $('伍老师回答问题学生问题').item.json.text }}" 78 | }, 79 | { 80 | "name": "voice", 81 | "value": "alloy" 82 | }, 83 | { 84 | "name": "instructions", 85 | "value": "=普通话发单要准确清晰,语速按1.2倍速。\n{{ $json.text }}" 86 | } 87 | ] 88 | }, 89 | "options": {} 90 | }, 91 | "type": "n8n-nodes-base.httpRequest", 92 | "typeVersion": 4.2, 93 | "position": [ 94 | 1240, 95 | 20 96 | ], 97 | "id": "64b39629-b7a8-4898-aa82-ebc3069e7cf8", 98 | "name": "openai-tts" 99 | }, 100 | { 101 | "parameters": { 102 | "promptType": "define", 103 | "text": "={{ $json['学生问题'] }}", 104 | "messages": { 105 | "messageValues": [ 106 | { 107 | "message": "你是资深的英语老师。对学生提出的问题进行英语方面的回答。简洁并突出重点,解决学习的核心需求、主要问题。如果回答的问题可以举例或可以造句或有与之相对应的名言名句,请加上中英两方面的举例。尽量精简,不要超80字" 108 | } 109 | ] 110 | } 111 | }, 112 | "type": "@n8n/n8n-nodes-langchain.chainLlm", 113 | "typeVersion": 1.6, 114 | "position": [ 115 | 140, 116 | 20 117 | ], 118 | "id": "9a7048a7-267d-415b-a8b1-bea3d4ae238a", 119 | "name": "伍老师回答问题学生问题" 120 | }, 121 | { 122 | "parameters": { 123 | "promptType": "define", 124 | "text": "={{ $('伍老师回答问题学生问题').item.json.text }}", 125 | "messages": { 126 | "messageValues": [ 127 | { 128 | "message": "根据内容及生活经验,参考以下格式,生成与内容想匹配的语音的语气语调及语速等的提示词。参考内容:Voice Affect: Calm, composed, and reassuring. Competent and in control, instilling trust. Tone: Sincere, empathetic, with genuine concern for the customer and understanding of the situation. Pacing: Slower during the apology to allow for clarity and processing. Faster when offering solutions to signal action and resolution. Emotions: Calm reassurance, empathy, and gratitude. Pronunciation: Clear, precise: Ensures clarity, especially with key details. Focus on key words like \"refund\" and \"patience.\" Pauses: Before and after the apology to give space for processing the apology." 129 | } 130 | ] 131 | } 132 | }, 133 | "type": "@n8n/n8n-nodes-langchain.chainLlm", 134 | "typeVersion": 1.6, 135 | "position": [ 136 | 720, 137 | 20 138 | ], 139 | "id": "8fc29a20-9bea-4f76-a6ad-9a6b54d95cb9", 140 | "name": "语气生成专员" 141 | }, 142 | { 143 | "parameters": { 144 | "model": { 145 | "__rl": true, 146 | "value": "deepseek/deepseek-v3-0324", 147 | "mode": "list", 148 | "cachedResultName": "deepseek/deepseek-v3-0324" 149 | }, 150 | "options": { 151 | "maxTokens": 8192, 152 | "temperature": 0.8 153 | } 154 | }, 155 | "type": "@n8n/n8n-nodes-langchain.lmChatOpenAi", 156 | "typeVersion": 1.2, 157 | "position": [ 158 | -40, 159 | 680 160 | ], 161 | "id": "1791c44f-b3ab-461e-b810-95a6d396c05d", 162 | "name": "AI Chat Model1", 163 | "credentials": { 164 | "openAiApi": { 165 | "id": "cJ3ORvWrXjPvJqAk", 166 | "name": "novita.ai" 167 | } 168 | } 169 | }, 170 | { 171 | "parameters": { 172 | "promptType": "define", 173 | "text": "={{ $json['学生问题'] }}", 174 | "messages": { 175 | "messageValues": [ 176 | { 177 | "message": "你是资深的英语老师。对学生提出的问题进行英语方面的回答。简洁并突出重点,解决学习的核心需求、主要问题。如果回答的问题可以举例或可以造句或有与之相对应的名言名句,请加上中英两方面的举例。如果是故事,只输出英文故事的内容。内容不要超100字" 178 | } 179 | ] 180 | } 181 | }, 182 | "type": "@n8n/n8n-nodes-langchain.chainLlm", 183 | "typeVersion": 1.6, 184 | "position": [ 185 | 140, 186 | 340 187 | ], 188 | "id": "21551c33-2cd4-48f4-afe3-7a31f524f725", 189 | "name": "伍老师回答问题学生问题1" 190 | }, 191 | { 192 | "parameters": { 193 | "promptType": "define", 194 | "text": "={{ $('伍老师回答问题学生问题1').item.json.text }}", 195 | "messages": { 196 | "messageValues": [ 197 | { 198 | "message": "根据内容及生活经验,参考以下格式,生成与内容想匹配的语音的语气语调及语速等的提示词。参考内容:Voice Affect: Calm, composed, and reassuring. Competent and in control, instilling trust. Tone: Sincere, empathetic, with genuine concern for the customer and understanding of the situation. Pacing: Slower during the apology to allow for clarity and processing. Faster when offering solutions to signal action and resolution. Emotions: Calm reassurance, empathy, and gratitude. Pronunciation: Clear, precise: Ensures clarity, especially with key details. Focus on key words like \"refund\" and \"patience.\" Pauses: Before and after the apology to give space for processing the apology." 199 | } 200 | ] 201 | } 202 | }, 203 | "type": "@n8n/n8n-nodes-langchain.chainLlm", 204 | "typeVersion": 1.6, 205 | "position": [ 206 | 720, 207 | 340 208 | ], 209 | "id": "207e5be1-31dc-4b80-96bb-e82e8365df63", 210 | "name": "语气生成专员1" 211 | }, 212 | { 213 | "parameters": { 214 | "assignments": { 215 | "assignments": [ 216 | { 217 | "id": "c68fa921-d606-4427-9a5c-eb1964734791", 218 | "name": "学生问题", 219 | "value": "伍老师你好,请给我请个小故事,想听", 220 | "type": "string" 221 | } 222 | ] 223 | }, 224 | "options": {} 225 | }, 226 | "type": "n8n-nodes-base.set", 227 | "typeVersion": 3.4, 228 | "position": [ 229 | -100, 230 | 340 231 | ], 232 | "id": "c3218bdc-baf3-4a78-a8f3-aad79213ed11", 233 | "name": "学生问题1" 234 | }, 235 | { 236 | "parameters": { 237 | "assignments": { 238 | "assignments": [ 239 | { 240 | "id": "c68fa921-d606-4427-9a5c-eb1964734791", 241 | "name": "学生问题", 242 | "value": "伍老师你好,这个单词workflow是什么意思?", 243 | "type": "string" 244 | } 245 | ] 246 | }, 247 | "options": {} 248 | }, 249 | "type": "n8n-nodes-base.set", 250 | "typeVersion": 3.4, 251 | "position": [ 252 | -100, 253 | 20 254 | ], 255 | "id": "7ae81ea4-d695-45a8-8926-ec40f46b1b28", 256 | "name": "学生问题" 257 | }, 258 | { 259 | "parameters": { 260 | "promptType": "define", 261 | "text": "={{ $json['伍老师回答问题学生问题1'] }}", 262 | "messages": { 263 | "messageValues": [ 264 | { 265 | "message": "根据故事来生成具象的主要物品或人物等的图片生成的提示词。" 266 | } 267 | ] 268 | } 269 | }, 270 | "type": "@n8n/n8n-nodes-langchain.chainLlm", 271 | "typeVersion": 1.6, 272 | "position": [ 273 | 740, 274 | 640 275 | ], 276 | "id": "d3a6b3a8-7cb9-43a9-b348-e5ad1e55987a", 277 | "name": "图片生成专员" 278 | }, 279 | { 280 | "parameters": { 281 | "method": "POST", 282 | "url": "https://ttsapi.site/v1/audio/speech", 283 | "sendBody": true, 284 | "bodyParameters": { 285 | "parameters": [ 286 | { 287 | "name": "input", 288 | "value": "={{ $('伍老师回答问题学生问题1').item.json.text }}" 289 | }, 290 | { 291 | "name": "voice", 292 | "value": "alloy" 293 | }, 294 | { 295 | "name": "instructions", 296 | "value": "=普通话发单要准确清晰,语速按1.2倍速。\n{{ $json.text }}" 297 | } 298 | ] 299 | }, 300 | "options": {} 301 | }, 302 | "type": "n8n-nodes-base.httpRequest", 303 | "typeVersion": 4.2, 304 | "position": [ 305 | 1240, 306 | 340 307 | ], 308 | "id": "ea8f3eff-9212-45d5-8f30-5e2b812426f0", 309 | "name": "openai-tts1" 310 | }, 311 | { 312 | "parameters": { 313 | "numberInputs": 3 314 | }, 315 | "type": "n8n-nodes-base.merge", 316 | "typeVersion": 3.1, 317 | "position": [ 318 | 2520, 319 | 420 320 | ], 321 | "id": "6ffae947-c125-4f04-9571-02cfbc316b6f", 322 | "name": "Merge" 323 | }, 324 | { 325 | "parameters": { 326 | "operation": "binaryToPropery", 327 | "destinationKey": "tts-data", 328 | "options": {} 329 | }, 330 | "type": "n8n-nodes-base.extractFromFile", 331 | "typeVersion": 1, 332 | "position": [ 333 | 1500, 334 | 20 335 | ], 336 | "id": "32521b79-5301-4e19-9ca8-5c5ddffb05ef", 337 | "name": "转为base64" 338 | }, 339 | { 340 | "parameters": { 341 | "operation": "binaryToPropery", 342 | "destinationKey": "tts-data1", 343 | "options": {} 344 | }, 345 | "type": "n8n-nodes-base.extractFromFile", 346 | "typeVersion": 1, 347 | "position": [ 348 | 1500, 349 | 340 350 | ], 351 | "id": "1f12b08e-efdc-4b0f-97db-fd71f9dfc303", 352 | "name": "转为base64-1" 353 | }, 354 | { 355 | "parameters": { 356 | "assignments": { 357 | "assignments": [ 358 | { 359 | "id": "2dcb379b-61f0-4e31-9893-93619f2aca62", 360 | "name": "学生问题", 361 | "value": "={{ $('学生问题').item.json['学生问题'] }}", 362 | "type": "string" 363 | }, 364 | { 365 | "id": "b24f506a-5d39-4bbd-a862-1da51f6cf0b9", 366 | "name": "伍老师回答问题学生问题", 367 | "value": "={{ $json.text }}", 368 | "type": "string" 369 | } 370 | ] 371 | }, 372 | "options": {} 373 | }, 374 | "type": "n8n-nodes-base.set", 375 | "typeVersion": 3.4, 376 | "position": [ 377 | 520, 378 | 20 379 | ], 380 | "id": "6fa698d5-a497-42ff-bd5a-a64a2c979420", 381 | "name": "保存问题和回答1" 382 | }, 383 | { 384 | "parameters": { 385 | "assignments": { 386 | "assignments": [ 387 | { 388 | "id": "875bf4b1-6251-4728-b0ad-74bc24d82156", 389 | "name": "=学生问题", 390 | "value": "={{ $('学生问题').item.json['学生问题'] }}", 391 | "type": "string" 392 | }, 393 | { 394 | "id": "9a19ca39-951a-4931-a1a5-f61144646da0", 395 | "name": "伍老师回答问题学生问题1", 396 | "value": "={{ $json.text }}", 397 | "type": "string" 398 | } 399 | ] 400 | }, 401 | "options": {} 402 | }, 403 | "type": "n8n-nodes-base.set", 404 | "typeVersion": 3.4, 405 | "position": [ 406 | 520, 407 | 340 408 | ], 409 | "id": "e1648e30-ee7b-4110-9491-74daac72eed3", 410 | "name": "保存问题和回答2" 411 | }, 412 | { 413 | "parameters": { 414 | "functionCode": "// 获取合并后的数据\nconst ttsData1 = items[0].json[\"tts-data\"];\nconst ttsData2 = items[1].json[\"tts-data1\"];\nconst imageData = items[2].json;\n\n// 尝试获取问题和回答\nlet question1 = \"伍老师你好,这个单词workflow是什么意思?\";\nlet question2 = \"伍老师你好,请给我请个小故事,想听\";\n\nlet answer1 = \"\";\nlet answer2 = \"\";\n\n// 尝试从pairedItem获取相关信息\nif (items[0].pairedItem && items[0].pairedItem.item !== undefined) {\n try {\n // 这里需要根据实际工作流进行调整\n if ($('保存问题和回答1') && $('保存问题和回答1').item && $('保存问题和回答1').item.json) {\n answer1 = $('保存问题和回答1').item.json.answer || \"\";\n }\n } catch (e) {\n // 无法获取数据时保持默认值\n }\n}\n\nif (items[1].pairedItem && items[1].pairedItem.item !== undefined) {\n try {\n // 这里需要根据实际工作流进行调整\n if ($('保存问题和回答2') && $('保存问题和回答2').item && $('保存问题和回答2').item.json) {\n answer2 = $('保存问题和回答2').item.json.answer || \"\";\n }\n } catch (e) {\n // 无法获取数据时保持默认值\n }\n}\n\n// 生成HTML\nconst html = `\n\n\n \n \n 伍老师的英语课堂\n \n\n\n
\n
\n

伍老师的英语课堂

\n

Teaching English with passion and expertise

\n
\n \n
\n
问题: ${question1}
\n
${answer1}
\n
\n

语音回答:

\n \n
\n
回答时间: ${new Date().toLocaleString('zh-CN')}
\n
\n \n
\n
问题: ${question2}
\n
${answer2}
\n
\n

语音回答:

\n \n

故事插图:

\n \"故事插图\"\n
\n
回答时间: ${new Date().toLocaleString('zh-CN')}
\n
\n \n
\n

© ${new Date().getFullYear()} 伍老师英语教学 | 由 n8n 工作流自动生成

\n
\n
\n\n`;\n\n// 返回生成的HTML\nreturn [{\n json: {\n html: html\n }\n}];" 415 | }, 416 | "type": "n8n-nodes-base.function", 417 | "typeVersion": 1, 418 | "position": [ 419 | 2740, 420 | 420 421 | ], 422 | "id": "ade0046a-7364-49f4-b6e2-43889d979bc6", 423 | "name": "生成HTML页面" 424 | }, 425 | { 426 | "parameters": { 427 | "html": "={{ $json.html }}" 428 | }, 429 | "name": "HTML预览", 430 | "type": "n8n-nodes-base.html", 431 | "typeVersion": 1, 432 | "position": [ 433 | 2940, 434 | 420 435 | ], 436 | "id": "e0ca9f49-647c-4dff-b971-53e7bc480b33" 437 | }, 438 | { 439 | "parameters": { 440 | "assignments": { 441 | "assignments": [ 442 | { 443 | "id": "b5342261-fd86-4651-8c37-60f1c7c81d01", 444 | "name": "images[0].url", 445 | "value": "={{ $json.images[0].url }}", 446 | "type": "string" 447 | } 448 | ] 449 | }, 450 | "options": {} 451 | }, 452 | "type": "n8n-nodes-base.set", 453 | "typeVersion": 3.4, 454 | "position": [ 455 | 1500, 456 | 640 457 | ], 458 | "id": "2f33d0f9-c700-4d7f-96f6-b7be7a198958", 459 | "name": "图片url" 460 | } 461 | ], 462 | "pinData": { 463 | "生成HTML页面": [ 464 | { 465 | "json": { 466 | "html": "" 467 | } 468 | } 469 | ] 470 | }, 471 | "connections": { 472 | "When clicking 'Test workflow'": { 473 | "main": [ 474 | [ 475 | { 476 | "node": "学生问题", 477 | "type": "main", 478 | "index": 0 479 | } 480 | ] 481 | ] 482 | }, 483 | "硅基kolors生图": { 484 | "main": [ 485 | [ 486 | { 487 | "node": "图片url", 488 | "type": "main", 489 | "index": 0 490 | } 491 | ] 492 | ] 493 | }, 494 | "openai-tts": { 495 | "main": [ 496 | [ 497 | { 498 | "node": "转为base64", 499 | "type": "main", 500 | "index": 0 501 | } 502 | ] 503 | ] 504 | }, 505 | "伍老师回答问题学生问题": { 506 | "main": [ 507 | [ 508 | { 509 | "node": "保存问题和回答1", 510 | "type": "main", 511 | "index": 0 512 | } 513 | ] 514 | ] 515 | }, 516 | "语气生成专员": { 517 | "main": [ 518 | [ 519 | { 520 | "node": "openai-tts", 521 | "type": "main", 522 | "index": 0 523 | } 524 | ] 525 | ] 526 | }, 527 | "AI Chat Model1": { 528 | "ai_languageModel": [ 529 | [ 530 | { 531 | "node": "伍老师回答问题学生问题1", 532 | "type": "ai_languageModel", 533 | "index": 0 534 | }, 535 | { 536 | "node": "语气生成专员1", 537 | "type": "ai_languageModel", 538 | "index": 0 539 | }, 540 | { 541 | "node": "图片生成专员", 542 | "type": "ai_languageModel", 543 | "index": 0 544 | }, 545 | { 546 | "node": "伍老师回答问题学生问题", 547 | "type": "ai_languageModel", 548 | "index": 0 549 | }, 550 | { 551 | "node": "语气生成专员", 552 | "type": "ai_languageModel", 553 | "index": 0 554 | } 555 | ] 556 | ] 557 | }, 558 | "伍老师回答问题学生问题1": { 559 | "main": [ 560 | [ 561 | { 562 | "node": "保存问题和回答2", 563 | "type": "main", 564 | "index": 0 565 | } 566 | ] 567 | ] 568 | }, 569 | "语气生成专员1": { 570 | "main": [ 571 | [ 572 | { 573 | "node": "openai-tts1", 574 | "type": "main", 575 | "index": 0 576 | } 577 | ] 578 | ] 579 | }, 580 | "学生问题1": { 581 | "main": [ 582 | [ 583 | { 584 | "node": "伍老师回答问题学生问题1", 585 | "type": "main", 586 | "index": 0 587 | } 588 | ] 589 | ] 590 | }, 591 | "学生问题": { 592 | "main": [ 593 | [ 594 | { 595 | "node": "伍老师回答问题学生问题", 596 | "type": "main", 597 | "index": 0 598 | }, 599 | { 600 | "node": "学生问题1", 601 | "type": "main", 602 | "index": 0 603 | } 604 | ] 605 | ] 606 | }, 607 | "图片生成专员": { 608 | "main": [ 609 | [ 610 | { 611 | "node": "硅基kolors生图", 612 | "type": "main", 613 | "index": 0 614 | } 615 | ] 616 | ] 617 | }, 618 | "openai-tts1": { 619 | "main": [ 620 | [ 621 | { 622 | "node": "转为base64-1", 623 | "type": "main", 624 | "index": 0 625 | } 626 | ] 627 | ] 628 | }, 629 | "Merge": { 630 | "main": [ 631 | [ 632 | { 633 | "node": "生成HTML页面", 634 | "type": "main", 635 | "index": 0 636 | } 637 | ] 638 | ] 639 | }, 640 | "转为base64": { 641 | "main": [ 642 | [ 643 | { 644 | "node": "Merge", 645 | "type": "main", 646 | "index": 0 647 | } 648 | ] 649 | ] 650 | }, 651 | "转为base64-1": { 652 | "main": [ 653 | [ 654 | { 655 | "node": "Merge", 656 | "type": "main", 657 | "index": 1 658 | } 659 | ] 660 | ] 661 | }, 662 | "保存问题和回答1": { 663 | "main": [ 664 | [ 665 | { 666 | "node": "语气生成专员", 667 | "type": "main", 668 | "index": 0 669 | } 670 | ] 671 | ] 672 | }, 673 | "保存问题和回答2": { 674 | "main": [ 675 | [ 676 | { 677 | "node": "语气生成专员1", 678 | "type": "main", 679 | "index": 0 680 | }, 681 | { 682 | "node": "图片生成专员", 683 | "type": "main", 684 | "index": 0 685 | } 686 | ] 687 | ] 688 | }, 689 | "生成HTML页面": { 690 | "main": [ 691 | [ 692 | { 693 | "node": "HTML预览", 694 | "type": "main", 695 | "index": 0 696 | } 697 | ] 698 | ] 699 | }, 700 | "HTML预览": { 701 | "main": [ 702 | [] 703 | ] 704 | }, 705 | "图片url": { 706 | "main": [ 707 | [ 708 | { 709 | "node": "Merge", 710 | "type": "main", 711 | "index": 2 712 | } 713 | ] 714 | ] 715 | } 716 | }, 717 | "active": false, 718 | "settings": { 719 | "executionOrder": "v1" 720 | }, 721 | "versionId": "84f753e2-b00e-4576-b034-8f1345800b03", 722 | "meta": { 723 | "templateCredsSetupCompleted": true, 724 | "instanceId": "9501f726b92c2822c63011e56c8d3d259c3f2aafe02ce4257add10b45b11aebe" 725 | }, 726 | "id": "ZqzhWGWW1tzKVV8i", 727 | "tags": [] 728 | } 729 | -------------------------------------------------------------------------------- /assets/others/15.jpg: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/aigem/videos/f43eef97ec57be19e91d728d99fc3dbe433a4aac/assets/others/15.jpg -------------------------------------------------------------------------------- /assets/others/17.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/aigem/videos/f43eef97ec57be19e91d728d99fc3dbe433a4aac/assets/others/17.png -------------------------------------------------------------------------------- /assets/others/23.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/aigem/videos/f43eef97ec57be19e91d728d99fc3dbe433a4aac/assets/others/23.png -------------------------------------------------------------------------------- /assets/others/3.jpg: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/aigem/videos/f43eef97ec57be19e91d728d99fc3dbe433a4aac/assets/others/3.jpg -------------------------------------------------------------------------------- /assets/others/32.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/aigem/videos/f43eef97ec57be19e91d728d99fc3dbe433a4aac/assets/others/32.png -------------------------------------------------------------------------------- /assets/others/34.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/aigem/videos/f43eef97ec57be19e91d728d99fc3dbe433a4aac/assets/others/34.png -------------------------------------------------------------------------------- /assets/others/35.jpg: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/aigem/videos/f43eef97ec57be19e91d728d99fc3dbe433a4aac/assets/others/35.jpg -------------------------------------------------------------------------------- /assets/others/36-1.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/aigem/videos/f43eef97ec57be19e91d728d99fc3dbe433a4aac/assets/others/36-1.png -------------------------------------------------------------------------------- /assets/others/36.jpg: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/aigem/videos/f43eef97ec57be19e91d728d99fc3dbe433a4aac/assets/others/36.jpg -------------------------------------------------------------------------------- /assets/others/40.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/aigem/videos/f43eef97ec57be19e91d728d99fc3dbe433a4aac/assets/others/40.png -------------------------------------------------------------------------------- /assets/others/41.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/aigem/videos/f43eef97ec57be19e91d728d99fc3dbe433a4aac/assets/others/41.png -------------------------------------------------------------------------------- /assets/others/8.jpg: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/aigem/videos/f43eef97ec57be19e91d728d99fc3dbe433a4aac/assets/others/8.jpg -------------------------------------------------------------------------------- /assets/others/9.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/aigem/videos/f43eef97ec57be19e91d728d99fc3dbe433a4aac/assets/others/9.png -------------------------------------------------------------------------------- /md/1.md: -------------------------------------------------------------------------------- 1 | ![n8n](../assets/n8n-fanyi-api/n8n.png) 2 | 3 | 交流群: 4 | 5 | 企微 https://qr61.cn/oohivs/qRp62U6 6 | 7 | Discord https://discord.gg/3JWMgKQznF 8 | 9 | ## 本期视频内容要点 10 | 11 | 【沉浸式翻译自定义API部署指南+N8N更好可定制化翻译工作流:用N8N打造你的专属翻译神器-N8N教程[本期视频](https://www.bilibili.com/video/BV1PZy2YdErb/)】 12 | 13 | - 上期我们通过免费部署 DeepL 的 API 来实现沉浸式翻译,今天我们通过 n8n 来部署一个自定义的 API 来实现沉浸式翻译。 14 | 15 | ![流程](../assets/n8n-fanyi-api/api.png) 16 | 17 | - N8N 通过 Webhook 来接收沉浸式翻译的请求,然后调用主流大语言模型来翻译文本,最后将翻译后的文本返回给沉浸式翻译。我们将详细讲解这个过程。 18 | 19 | 20 | ## 部署自定义 API 21 | 22 | 现在我们开始用 n8n 部署一个自定义的 API 来使用沉浸式翻译。 23 | 24 | 1、明确沉浸式翻译的流程 25 | 26 | - 沉浸式翻译向 自定义 API 发送请求及需要翻译的文本:此 API 是 N8N 的 Webhook 27 | 28 | - 翻译文本:N8N 收到请求后自动调用主流大语言模型来翻译文本,得到翻译后的文本 29 | 30 | - 返回翻译后的文本:N8N 将翻译后的文本返回给沉浸式翻译 31 | 32 | - 沉浸式翻译将翻译后的文本展示在界面上 33 | 34 | 2、自动义 API 的格式 35 | 36 | 参考官方说明:https://immersivetranslate.com/zh-Hans/docs/services/custom/ 37 | 38 | ![api](../assets/n8n-fanyi-api/api1.png) 39 | 40 | 41 | ![api2](../assets/n8n-fanyi-api/api2.png) 42 | 43 | 3、部署自定义 API【N8N自动化工作流】 44 | 45 | 查看详细的工作流 [n8n-fanyi-api.json](https://aigenai-aiflow.hf.space/workflow/eGgX67kijOCxwR8h) 46 | 47 | ### 实测 48 | 49 | 1、用沉浸式翻译测试自定义 API 连通性 50 | 51 | 2、用自定义 API 测试沉浸式翻译网页内容 52 | 53 | 3、用自定义 API 测试文件翻译 54 | 55 | ## 部署 n8n 56 | 57 | ### N8N 部署方式 58 | 59 | 1、可在本地部署【[官网](https://docs.n8n.io/hosting/)】 60 | 61 | 2、HuggingFace部署【免费】【推荐】【[视频教程](https://www.bilibili.com/video/BV1e6sVeEEhR/) [项目地址](https://github.com/aigem/n8n-serv00)】 62 | 63 | 3、Serv00部署【免费】【推荐】【[视频教程](https://www.bilibili.com/video/BV1PZy2YdErb/) [项目地址](https://github.com/aigem/n8n-serv00)】 64 | 65 | ### 相关链接: 66 | 67 | 免费部署 DeepL 的 API 来实现沉浸式翻译 【[视频教程](https://www.bilibili.com/video/BV1e9bceoECw/) [项目地址](https://github.com/aigem/deeplx-freeAPI-serv00)】 68 | 69 | 70 | 71 | 相关链接我会放到视频下方的。 72 | 73 | ### 相关资源 74 | 75 | n8n 工作流文件 [workflow.json](../src/n8n-fanyi-api.json/) 76 | 77 | 78 | ## 本期视频总结 79 | 80 | - 通过 n8n 部署一个自定义的 API 来实现沉浸式翻译,可以大大提高翻译的准确性及翻译的质量。 81 | 82 | - 通过 n8n 部署一个自定义的 API 来实现沉浸式翻译,可以实现特殊的翻译需求及翻译的个性化。 83 | 84 | - 所有软件、服务、LLM 模型、API 都是免费的,可以大大降低成本。 85 | 86 | 87 | 88 | 89 | 90 | 91 | 92 | 93 | 94 | 95 | 96 | 97 | 98 | 99 | 100 | 101 | 102 | 103 | 104 | 105 | 106 | 107 | 108 | 109 | 110 | 111 | 112 | 113 | 114 | 115 | 116 | 117 | 118 | 119 | 120 | 121 | 122 | 123 | 124 | 125 | -------------------------------------------------------------------------------- /md/14.md: -------------------------------------------------------------------------------- 1 | ![14](../assets/cloud-studio-free/cloud-studio-logo-dark.7fff1da5.svg) 2 | ## [关于Cloud Studio](https://ide.cloud.tencent.com/) 3 | 4 | 交流群: 5 | 6 | 企微 https://qr61.cn/oohivs/qRp62U6 7 | 8 | Discord https://discord.gg/3JWMgKQznF 9 | 10 | ### [视频教程]() 11 | 12 | ### 配置: 13 | ![14](../assets/cloud-studio-free/screenshot-1731597304828.png) 14 | 15 | ![14](../assets/cloud-studio-free/screenshot-1731597438641.png) 16 | 17 | [ cloud studio 网址 ](https://ide.cloud.tencent.com/) 注册白嫖吧。 18 | 19 | ## 每月免费50000分钟,相关 *使用技巧* 及 *Ngrok部署教程* 放在以下链接了,关注后取用吧。 20 | 21 | ### 【[BiLibili工房](https://gf.bilibili.com/item/detail/1107164073)】 22 | ### 【[获取更多脚本](https://gf.bilibili.com/item/detail/1107198073)】 23 | 24 | 25 | 26 | 27 | [良心云第一弹](https://www.bilibili.com/video/BV1BJmSYFE2a) 28 | 29 | [良心云第二弹](https://www.bilibili.com/video/BV1QEmrYZEtt/) 30 | 31 | [良心云第三弹](https://www.bilibili.com/video/BV1tmSFY1ERb/)【一键安装open webUI】 32 | 33 | [良心云第四弹](https://www.bilibili.com/video/BV1nMzNYHEd6/)【一键安装ComfyUI + Ngrok】 34 | 35 | 36 | 37 | ### 提示:Ngrok部署很简单的。 38 | 39 | ### [Cloud Studio 安装ollama及Qwen2.5 Coder 32B使用示范](https://www.bilibili.com/video/BV1VYUAYZEH7/) 40 | 41 | 42 | 43 | ![封面](../assets/cloud-studio-free/14.jpg) 44 | ![image](../assets/others/17.png) 45 | ![封面](../assets/cloud-studio-free/20.jpg) 46 | -------------------------------------------------------------------------------- /md/15.md: -------------------------------------------------------------------------------- 1 | ## 帮你们试了,要装!windsurf Ai编程神器 体验极好,与curso不相上下,免费使用,速上。实战你们感兴趣的程序,来体验一下吧 2 | 3 | 交流群: 4 | 5 | 企微 https://qr61.cn/oohivs/qRp62U6 6 | 7 | Discord https://discord.gg/3JWMgKQznF 8 | 9 | ### [视频教程](https://www.bilibili.com/video/BV1B3U7YuEcZ/) 10 | 11 | ![img](../assets/others/15.jpg) 12 | 13 | ### Windsurf 相关 14 | 官网下载地址 https://codeium.com/windsurf 15 | 16 | ### 图片渲染程序 17 | 18 | #### [DEMO: https://1pics.edge1.us.kg/](https://1pics.edge1.us.kg/) 19 | 20 | -------------------------------------------------------------------------------- /md/17.md: -------------------------------------------------------------------------------- 1 | ### 良心云Cloud studio免费GPU云主机上一键部署open webUI 脚本安装教程 | 一键安装运行 | 免费云主机 | 免费算力电脑 | 云端电脑 2 | 3 | 交流群: 4 | 5 | 企微 https://qr61.cn/oohivs/qRp62U6 6 | 7 | Discord https://discord.gg/3JWMgKQznF 8 | 9 | 【[视频教程](https://www.bilibili.com/video/BV1tmSFY1ERb/)】 【[获取一键脚本](https://gf.bilibili.com/item/detail/1107198073)】 10 | 11 | ![image](../assets/others/17.png) 12 | 13 | ### 【[视频教程](https://www.bilibili.com/video/BV1tmSFY1ERb/)】 【[获取一键脚本](https://gf.bilibili.com/item/detail/1107198073)】 14 | 15 | [良心云第一弹](https://www.bilibili.com/video/BV1BJmSYFE2a) 16 | 17 | [良心云第二弹](https://www.bilibili.com/video/BV1QEmrYZEtt/) 18 | 19 | [良心云第三弹](https://www.bilibili.com/video/BV1tmSFY1ERb/)【一键安装open webUI】 20 | 21 | [良心云第四弹](https://www.bilibili.com/video/BV1nMzNYHEd6/)【一键安装ComfyUI + Ngrok】 22 | 23 | ### 云端在线的 Open WebUI 非常有安装的必要! 24 | ### 可以结合其它应用来生成图片、音乐、语音,方便好用。 25 | 例如: 26 | 【[视频教程](https://www.bilibili.com/video/BV1VYUAYZEH7/)】 27 | 【[视频教程](https://www.bilibili.com/video/BV1DJDDYfEfD/)】 28 | 【[视频教程](https://www.bilibili.com/video/BV1uVDdYgE2t/)】 29 | 【[视频教程](https://www.bilibili.com/video/BV1KcDwYUEC6/)】 30 | 31 | ### 也可以结合n8n来实现工作流自动化。 32 | 例如: 33 | 【[视频教程](https://www.bilibili.com/video/BV19iSRY6EJB/)】 34 | 【[视频教程](https://www.bilibili.com/video/BV1K115YBEcD/)】 35 | 36 | 37 | ### 还可以使用各种模型的API, 来实现AI应用。 38 | 例如: 39 | 【[视频教程](https://www.bilibili.com/video/BV1ftUDYiE7Y/)】 40 | 41 | -------------------------------------------------------------------------------- /md/2.md: -------------------------------------------------------------------------------- 1 | ![marscode](../assets/marscode/marscode.jpg) 2 | 3 | ## 本期视频内容要点 [视频地址](https://www.bilibili.com/video/BV1JRStYCEsU/) 4 | 5 | 交流群: 6 | 7 | 企微 https://qr61.cn/oohivs/qRp62U6 8 | 9 | Discord https://discord.gg/3JWMgKQznF 10 | 11 | 【MarsCode:云端编程新体验,免费64G内存+32核CPU等你冲🚀不间断运行 云端版cursor】 12 | 本期视频主要介绍了 MarsCode 这款云端 IDE 的特点和优势: 13 | 14 | - MarsCode 提供了强大的云端开发环境,作为云端版的 Cursor,让开发者可以随时随地进行编程,提供了更加便捷和高效的云端编程体验 15 | 16 | - MarsCode 支持不间断运行, 通过proot的办法可以获得 64G 内存和 32 核 CPU 的配置,让开发者可以在云端进行高性能的编程开发。 17 | 18 | ## 正文 19 | 20 | 大家好,今天要给大家安利一个超级好用的云IDE——MarsCode,豆包旗下的新神器,有人说它是云端版的Cursor,但我觉得它更像我们编程界的哆啦A梦,随时随地掏出神奇工具! 21 | 22 | 🌐【即开即用】 23 | 打开网页就能直接编程,不需要下载安装,文件持久化存储,随时随地继续你的项目。 24 | 25 | 🕒【无时间限制】 26 | 运行云IDE没有时间限制,想怎么用就怎么用,自由自在。 27 | 28 | 🌍【国际化网络】 29 | 国际版无需手机号,邮箱注册即用,网络环境国际化,编程写项目顺滑到飞起。 30 | 31 | 💪【性能炸裂】 32 | 64G内存和32核CPU的服务器免费用,24小时无间断,性能强悍到让你的代码飞起来。 33 | 34 | 🔧【操作简便】 35 | 即使是小白也能轻松上手,部署完成,自带示范程序,一键测试,轻松查看Hello World。 36 | 37 | 🛠️【自由安装】 38 | 一键获取proot,自由安装各种软件,APT命令随心用,让你的云IDE功能更全面。 39 | 40 | 📈【硬件配置】 41 | 运行Neofetch查看服务器硬件配置,32核CPU和64G内存,性能一目了然。 42 | 43 | ## 相关安装命令 44 | 45 | ### 获取root权限 46 | ```bash 47 | sudo su 48 | wget -O su.sh https://bit.ly/akuhGet && chmod +x su.sh && ./su.sh 49 | # 如果su.sh没有运行,请手动运行 50 | bash su.sh 51 | ``` 52 | 53 | ### 安装neofetch 54 | ```bash 55 | sudo apt update && sudo apt install neofetch -y 56 | ``` 57 | 58 | ### 安装htop 59 | ```bash 60 | sudo apt update && sudo apt install htop -y 61 | ``` 62 | 63 | ### 相关链接: 64 | 65 | 免费部署 DeepL 的 API 来实现沉浸式翻译 【[视频教程](https://www.bilibili.com/video/BV1e9bceoECw/) [项目地址](https://github.com/aigem/deeplx-freeAPI-serv00)】 66 | 相关视频 https://www.bilibili.com/video/BV1cC411n7gB/ 67 | 68 | [https://www.bilibili.com/video/BV1nS421d72h/](https://www.bilibili.com/video/BV1nS421d72h/) 69 | [https://www.bilibili.com/video/BV1an4y1X7h5/](https://www.bilibili.com/video/BV1an4y1X7h5/) 70 | [https://www.bilibili.com/video/BV1Ey411i7R2/](https://www.bilibili.com/video/BV1Ey411i7R2/) 71 | [https://www.bilibili.com/video/BV1JLmPYKEp9/](https://www.bilibili.com/video/BV1JLmPYKEp9/) 72 | [https://www.bilibili.com/video/BV1JRStYCEsU/](https://www.bilibili.com/video/BV1JRStYCEsU/) 73 | 74 | ### 相关资源 75 | 76 | - 无 77 | 78 | ## 本期视频总结 79 | 80 | - 使用国际版MarsCode,可以获得更加流畅的编程体验。但不能是国内IP。 81 | - 免费提供 64G 内存和 32 核 CPU 的配置,不限时运行。可能随时取消。 82 | - 不间断运行,需要借助一定的技术手段。后续会出视频讲解。 83 | 84 | 85 | 86 | 87 | 88 | 89 | 90 | 91 | 92 | 93 | 94 | 95 | 96 | 97 | 98 | 99 | 100 | 101 | 102 | 103 | 104 | 105 | 106 | 107 | 108 | 109 | 110 | 111 | 112 | 113 | 114 | 115 | 116 | 117 | 118 | 119 | 120 | 121 | 122 | -------------------------------------------------------------------------------- /md/21.md: -------------------------------------------------------------------------------- 1 | ## Aitools之ComfyUI 一键安装脚本【ai来事】 2 | 3 | 交流群: 4 | 5 | 企微 https://qr61.cn/oohivs/qRp62U6 6 | 7 | Discord https://discord.gg/3JWMgKQznF 8 | 9 | ### 本视频解决什么问题?【[视频地址](https://www.bilibili.com/video/BV13UBRYVEmX/)】 10 | 在 AI 创作领域,显卡及工具的配置往往会成为入门的第一道门槛。本视频就来解决这两个痛点,让人人都有你的AI PC,让你都能轻松部署。 11 | 12 | 1. 一张显卡 :硬件上满足你,达到人人都有AI PC 13 | 2. ComfyUI 安装: 软件上满足你,达到人人都能部署 14 | 3. ComfyUI 使用:下载模型,一键运行,达到人人都能使用 15 | 16 | ## 说说ComfyUI 一键安装脚本 17 | ComfyUI 一键安装工具致力于为所有人提供更便捷的部署体验。以下是我们的优势,我挑重点来说说: 18 | 19 | ### 1. 极致的安装体验 20 | - 🚀 **一键式部署**:告别繁琐配置,**一键完成从环境准备到服务启动**的全流程 21 | - 🔄 **智能依赖处理**:自动解决复杂的包依赖关系,避免版本冲突 22 | - 🎉 **模块化设计**:各功能模块独立,便于维护和扩展 23 | 24 | ### 2. 国内环境深度优化 25 | - 🚅 **高速镜像源**:**Github源的国内替代** 26 | - 📦 **稳定下载**:支持大文件断点续传,模型下载更稳定 27 | - ⚖️ **多方式下载**:提供**3种下载方式**,**国内网络**可用。支持HuggingFace、modelscope的模型下载,支持**aria2下载**,支持断点续传 28 | 29 | ### 3. 功能增强 30 | - 🔌 **即插即用**:内置**ComfyUI Manager**,扩展管理更轻松 31 | - 📚 **丰富资源**:优质模型与插件一键下载,开箱即用 32 | - 🛠️ **扩展性强**:支持自定义扩展,满足个性化需求 33 | - 🎉 **一键运行**:真的一键到底,**一行命令下载**模型,**一行命令启动并运行** 34 | 35 | ### 4. 全平台兼容支持 36 | - ☁️ **云端优化**:完美适配**良心云Cloud Studio**免费算力平台 37 | - 💻 **硬件适配**:支持 NVIDIA GPU 环境 38 | - 🖥️ **系统兼容**:计划支持**更多免费算力**平台 39 | 40 | ### 5. 持续更新与维护 41 | - 🆕 **版本同步**:同步 ComfyUI 更新 42 | - 📈 **定期更新**:持续优化模型与插件,提升使用体验 43 | 44 | ### 6. 版本管理与兼容性 45 | - 🎯 **版本更新**:自动安装 CUDA 与 PyTorch 新版本 46 | 47 | ### 7. 便捷的配置管理 48 | - ⚙️ **集中配置**:统一管理所有**配置项**,一目了然 49 | - 💻 **开机进入特定虚拟环境**:开机自动进入**ComfyUI特定虚拟环境**,无需手动切换 50 | 51 | ## 如何用ComfyUI 一键安装脚本 [【视频教程】](https://www.bilibili.com/video/BV13UBRYVEmX/) 52 | 53 | - 在[此链接](https://gf.bilibili.com/item/detail/1107198073)获取一键安装脚本 54 | - [登录良心云Cloud Studio: https://ide.cloud.tencent.com/](https://ide.cloud.tencent.com/) 55 | - 新建一个高性能空间,这里我们选择 **Llama3.2 - RAG SFT练习** 这个模板 56 | - 进入空间,将所有获取到的脚本文件上传到我们新建的空间 57 | - 在命令行中运行一键安装脚本:`bash startup.sh` 58 | - 来到安装界面,选择安装选项:ComfyUI,输入 1 回车 59 | - 等待脚本运行完成,安装的最后,会提示输入Ngrok Token,输入后回车 60 | - 到ngrok官网注册一个账号,在linux项中获取我们的Ngrok Token 61 | - 之后会自动运行ComfyUI服务,并生成一个访问地址 62 | - 打开浏览器,访问生成的访问地址,开始使用 63 | 64 | ## 如何使用ComfyUI [【视频教程】](https://www.bilibili.com/video/BV13UBRYVEmX/) 65 | - 下载模型: 66 | 1. 下载modelscope(https://www.modelscope.cn/models)模型:`bash scripts/download.sh` 67 | 先获取要下载模型的相关信息,然后运行脚本:比如 68 | 2. 下载huggingface(https://huggingface.co/models)模型:`bash scripts/download.sh` 69 | 先获取要下载模型的相关信息,然后运行脚本:比如 70 | 3. 使用aria2下载:`aria2c -c -x 16 -s 16 -k 100M --max-download-limit=50M https://hf-mirror.com/OuteAI/OuteTTS-0.2-500M/resolve/main/model.safetensors` 71 | - 记得将 hf-mirror.com 替换了 huggingface.co 72 | - 大家查看 huggingface 模型可以使用 https://hf-mirror.com/models 73 | 74 | - 一键运行ComfyUI及Ngrok: 75 | 在命令行中运行: 76 | `bash scripts/run.sh` 77 | 78 | - 使用模型: 79 | 附赠视频中的workflow文件,是关于Flux redux 最简工作流,使用方法: 80 | 1. 这个workflow文件是基于Flex.1 dev及新推荐的工具的 81 | 2. 使用方法: 82 | 确保有以下模型文件: 83 | - `models/checkpoints/flux_redux.safetensors` 84 | - `models/vae/vae_approx-sdxl_v3.safetensors` 85 | - `models/clip_vision/sigclip_vision_patch14_384.safetensors` 86 | - `models/style_models/flux1-redux-dev.safetensors` 87 | 88 | 分别运行以下命令帮我下载 workflow 需要的所有模型: 89 | ```bash 90 | cd /workspace/ComfyUI/models/checkpoints && aria2c -c -x 16 -s 16 -k 50M --max-download-limit=50M https://modelscope.cn/models/livehouse/flux1-dev-fp8/resolve/master/flux1-dev-fp8.safetensors 91 | 92 | cd /workspace/ComfyUI/models/vae && aria2c -c -x 16 -s 16 -k 50M --max-download-limit=50M https://modelscope.cn/models/AI-ModelScope/FLUX.1-dev/resolve/master/ae.safetensors 93 | 94 | cd /workspace/ComfyUI/models/clip_vision && aria2c -c -x 16 -s 16 -k 50M --max-download-limit=50M https://modelscope.cn/models/Comfy-Org/sigclip_vision_384/resolve/master/sigclip_vision_patch14_384.safetensors 95 | 96 | cd /workspace/ComfyUI/models/style_models && aria2c -c -x 16 -s 16 -k 50M --max-download-limit=50M https://modelscope.cn/models/AI-ModelScope/FLUX.1-Redux-dev/resolve/master/flux1-redux-dev.safetensors 97 | ``` 98 | 99 | # have fun !! have a good time !! have a great job !! 100 | 101 | 102 | -------------------------------------------------------------------------------- /md/23.md: -------------------------------------------------------------------------------- 1 | ## 超实用的AI工具和技巧分享 2 | 3 | 大家好!今天要给大家带来几个超实用的AI工具和技巧。 4 | 5 | 交流群: 6 | 7 | 企微 https://qr61.cn/oohivs/qRp62U6 8 | 9 | Discord https://discord.gg/3JWMgKQznF 10 | 11 | 【[视频链接](https://www.bilibili.com/video/BV1qf6wYkEKQ/)】【[工作流获取](https://gf.bilibili.com/item/detail/1107271073)】 12 | 13 | ### 偷网站神器 14 | 15 | 首先,V0 功能来了!你有没有想过,只需一键,就能“偷”走任何网站的设计?没错,用最简单的方式一键复刻任何优秀网站。我们来看看 Stripe 的这个页面。他们的页面设计清新简约,动画流畅,超适合模仿提升你的项目档次! 16 | 17 | ### AI Copilot全方位升级 18 | 19 | 接着是 AI Copilot 的重磅更新,它基于 OpenAI 技术。很多人可能觉得:这不就是用 OpenAI 的模型生图嘛?UP主不也提供了软硬件 AI 使用方案吗,很多小白都直接用上 ComfyUI 来生图了,有什么稀奇的?其实不然!虽然 DALL-E 的生图能力很不错,且不限制次数,免费,但这次的主角是它的实时语音对话功能,依然免费开放!想象一下,让它成为你的英语老师,和你练习口语,甚至还能帮家里需要学英语的小伙伴提高水平。这种实时互动的体验,真的不敢想象吧?全天候英语私教多少钱来着?心动的话,记得关注支持我! 20 | 21 | ### AI编程遍地开花 22 | 23 | 写程序还需要代码?那你就 out 了!像 Databutton,一行代码都不用写。当然,要收费的就算了,现在免费可用的工具太多了,比如 Cursor、Windsurf、Bolt New、Aide IDE、V0 Dev、Lovable Dev。特别推荐大家安装 Cursor 或 Windsurf,这些工具不仅仅是程序员的福音,还能在生活、工作和学习中大大提高效率,是必备的神器! 24 | 25 | ![image](../assets/others/23.png/23.png) 26 | 27 | ### 超实用的文生图工作流福利 28 | 29 | 【[视频链接](https://www.bilibili.com/video/BV1qf6wYkEKQ/)】【[工作流获取](https://gf.bilibili.com/item/detail/1107271073)】 30 | 31 | 最后要分享的可能是最实用的一个超实用的 ComfyUI 文生图工作流!有朋友担心没有显卡怎么办?别担心!看过我往期视频的朋友都知道,我们有免费的云端 GPU 解决方案,我会在视频下方放上相关工作流和模型文件的下载地址等,关注自取,方便大家直接上手操作。赶紧试试,你也能轻松体验 AI 创作的乐趣。 32 | 33 | 提醒一下,AI Copilot 的使用需要魔法,美丽国的 IP,绝对建议大家使用 AI Copilot。 34 | 35 | 好了,以上就是本期的全部内容。如果觉得有用,请点赞关注,你的支持是我持续分享的动力!记得转发给可能需要的朋友。 36 | -------------------------------------------------------------------------------- /md/24.md: -------------------------------------------------------------------------------- 1 | 大家好,今天给大家分享F 5 T T S 的一键安装脚本。 2 | 3 | 交流群: 4 | 5 | 企微 https://qr61.cn/oohivs/qRp62U6 6 | 7 | Discord https://discord.gg/3JWMgKQznF 8 | 9 | 10 | 上海交大开源的强大语音生成模型。 11 | 大众多语言处理工具中,长文本处理能力最强的,可以处理长达5000字甚至更多。 12 | 还可以通过3秒以内的声音样本,快速生成高质量的语音。 13 | 听说之前很火的雷军语录,就是用这个模型生成的。 14 | 功能强大,效果惊艳,还能精确地模拟情绪并生成高质量的语音, 15 | 对显存要求不高,还能一键安装, 16 | 即装即用,人人可用。 17 | 本期视频就给大家分享如何一键安装及使用。 18 | 本期视频语音由F 5 T T S 生成。 19 | 20 | -------------------------------------------------------------------------------- /md/25.md: -------------------------------------------------------------------------------- 1 | 大家好!本期视频我要介绍一个革命性的开源项目——Steel Browser。 2 | 3 | 交流群: 4 | 5 | 企微 https://qr61.cn/oohivs/qRp62U6 6 | 7 | Discord https://discord.gg/3JWMgKQznF 8 | 9 | 想象一下,AI能像我们一样轻松上网、处理信息,还能自动化操作,Steel Browser就是让这些成为现实的神器! 10 | 11 | 开发AI时,我们总被浏览器自动化的复杂配置、不稳定性能和繁琐接口困扰。这个开源项目帮我们解决这些痛点。 12 | 现在我来示范部署一下,超简单。等待期间,我们来了解一下 Steel Browser: 13 | 14 | 通过API,大大强化了AI的网页处理能力: 15 | 精准捕捉网页内容 16 | 灵活执行JavaScript 17 | 智能管理浏览会话 18 | 轻松处理网络请求 19 | 20 | 它的主要特色是: 21 | 开发效率倍增 22 | 简洁优雅的Python API 23 | 即用即会的完整功能 24 | 详尽文档支持 25 | 性能与稳定性的完美结合 26 | 资源占用优化 27 | 运行稳定可靠 28 | 响应迅速高效 29 | 与AI完美融合 30 | 支持高级交互模式 31 | 智能化操作接口 32 | 33 | 来看看Steel Browser的应用场景: 34 | 升级版的智能助手:AI助手不再只是聊天,还能实时上网、收集信息、完成复杂任务。 35 | 数据采集的得力助手:就像有一支24/7的数据特工队,帮你收集、分析市场数据,抢占先机。 36 | 测试工程师的福音:自动化测试变得简单,就像有一个永不疲倦的专家,细致检查每个网页细节。 37 | 38 | 39 | 绝不是在卖广告,我真心觉得这个项目很棒,值得推荐。 40 | 无论是开发AI应用、数据分析还是自动化测试,它都是你的得力助手。 41 | 42 | 希望看到更多朋友使用,现在网络上找不到多少教程,还不太会用 43 | 现在示范一下抓取网页内容,我们使用api来操作 44 | 命令中输入这个。 45 | 看到显示的内容了吧。现在再来获取网页截图。 46 | 生成截图后在这里打开来看一下。 47 | 它还有很多高级功能,比如模拟用户操作,自动填写表单,点击按钮,提交数据等 48 | 我就不一一演示了,大家可以去官网查看。因为我也还在学习中。 49 | 50 | 如果对你有帮助,请给我点赞,转发,评论,收藏,关注 51 | 一起在AI的浪潮中乘风破浪,创造无限可能! 52 | 好了,本期视频就到这了,谢谢大家! 53 | 我们下期视频再见! 54 | -------------------------------------------------------------------------------- /md/27.md: -------------------------------------------------------------------------------- 1 | 各位创作者好!今天为大家带来重磅消息 —— OpenAI最新推出的AI视频生成神器Sora,让我们一起来看看它有多强大! 2 | 3 | 交流群: 4 | 5 | 企微 https://qr61.cn/oohivs/qRp62U6 6 | 7 | Discord https://discord.gg/3JWMgKQznF 8 | 9 | 【核心亮点】 10 | 想象一下,只需要输入文字或上传图片,就能生成高质量的视频内容。不管是1080P的高清画质,还是长达20秒的创意视频,Sora都能轻松搞定! 11 | 12 | 【独特功能】 13 | Sora最让人惊艳的是它的五大神级功能: 14 | - 故事板功能让您像专业导演一样规划分镜 15 | - 混合功能帮您融合不同视频创意 16 | - 重混功能随心所欲改变视频风格 17 | - 重剪功能完美优化视频细节 18 | - 循环功能让短视频创作更出彩 19 | 20 | 【订阅选择】 21 | Sora提供两档订阅方案: 22 | 每月20美元的Plus版本,就能获得50个720P视频的制作机会; 23 | 想要更专业的体验?200美元的Pro版本让您享受无水印下载、更快处理速度,还能同时生成更多视频! 24 | 25 | 【独特优势】 26 | 作为目前市面上功能最完整的AI视频工具,Sora不仅有业界领先的生成质量,还拥有完整的创意工具链和活跃的社区资源平台。预设功能更是让您的创作事半功倍! 27 | 28 | 虽然目前Sora还有一些限制,比如生成速度和人物效果还在优化中,但它绝对是未来AI视频创作的领军者! 29 | 30 | 想了解更多Sora的使用技巧和最新资讯,请记得点赞关注,我们下期再见! -------------------------------------------------------------------------------- /md/3.md: -------------------------------------------------------------------------------- 1 | # 主流Web框架在Cloudflare Workers的部署指南 2 | ![](../assets/others/3.jpg) 3 | 4 | 交流群: 5 | 6 | 企微 https://qr61.cn/oohivs/qRp62U6 7 | 8 | Discord https://discord.gg/3JWMgKQznF 9 | 10 | ## 开发环境必需: 11 | ### 【[视频教程](https://www.bilibili.com/video/BV1sFSqYGEem/)】 12 | 13 | ### 1. node、npm、pnpm 14 | 15 | #### Node.js 安装 16 | - Node.js 安装方法: 查看[官方文档](https://nodejs.org/en/download/) 17 | - 建议安装 LTS (长期支持版本) 18 | - 安装完成后,验证安装: 19 | ```bash 20 | node -v 21 | npm -v 22 | ``` 23 | 24 | #### pnpm 安装与配置 25 | pnpm 安装方法: 查看[官方文档](https://pnpm.io/installation) 26 | ```bash 27 | npm install -g pnpm 28 | ``` 29 | 30 | 验证 pnpm 安装: 31 | ```bash 32 | pnpm -v 33 | ``` 34 | 35 | 配置 pnpm: 36 | 37 | 1. 设置镜像源为国内镜像源(推荐使用腾讯源或阿里源) 38 | ```bash 39 | # 腾讯源 40 | pnpm config set registry https://mirrors.cloud.tencent.com/npm/ 41 | 42 | # 或使用阿里源 43 | pnpm config set registry https://registry.npmmirror.com/ 44 | ``` 45 | 46 | 2. 验证镜像源设置 47 | ```bash 48 | pnpm config get registry 49 | ``` 50 | 51 | ### 2. Cloudflare Workers 开发环境 52 | 53 | #### 准备工作 54 | 1. 注册 Cloudflare 账号:访问 [Cloudflare官网](https://dash.cloudflare.com/sign-up) 注册 55 | 2. 开通 Workers 服务:在 Cloudflare 控制台中开通 Workers & Pages 服务 56 | 57 | #### 支持的框架类型 58 | Cloudflare Workers 支持部署多种主流前端框架: 59 | 60 | 1. **全栈框架** 61 | - Remix (推荐) 62 | - Next.js (推荐,等next15版本) 63 | - Nuxt 64 | - SvelteKit 65 | - Qwik City 66 | 67 | 2. **静态站点框架** 68 | - Astro 69 | - Docusaurus 70 | - Gatsby 71 | - Vue 72 | - Angular 73 | - React 74 | - Solid 75 | 76 | #### 创建项目示例 77 | 78 | 1. **Remix 项目** 79 | ```bash 80 | pnpm create cloudflare@latest my-remix-app --framework=remix --experimental 81 | ``` 82 | 83 | 2. **Next.js 项目** 84 | ```bash 85 | 下期更新 86 | ``` 87 | 88 | #### 项目开发与部署流程 89 | 90 | 1. **进入项目目录** 91 | ```bash 92 | cd my-remix-app 93 | ``` 94 | 95 | 2. **安装依赖** 96 | ```bash 97 | 上面的一键命令已经安装,这个可选 98 | pnpm install 99 | ``` 100 | 101 | 3. **本地开发** 102 | ```bash 103 | pnpm run dev 104 | ``` 105 | - 默认访问地址:http://localhost:5173 106 | - 支持热更新 107 | - 支持本地调试 Workers 功能 108 | 109 | 4. **部署到 Cloudflare Workers** 110 | ```bash 111 | pnpm run deploy 112 | ``` 113 | 114 | 部署成功后,你会获得一个 `*.workers.dev` 的workers域名, 访问地址为:https://your-app-name.workers.dev 115 | 116 | #### 自定义域名配置 117 | 118 | 1. 在 Cloudflare 控制台中添加你的域名 119 | 2. 在 Workers 设置中绑定自定义域名 120 | 121 | ### 3. 常见问题解决 122 | 123 | 1. **部署失败问题** 124 | - 检查 `wrangler.toml` 配置是否正确 125 | - 确认账号是否有足够的配额 126 | - 查看 `wrangler deploy` 命令的错误日志 127 | 128 | 2. **性能优化建议** 129 | - 使用 Cloudflare 的 KV 存储或 D1 数据库 130 | - 合理设置缓存策略 131 | - 使用 Cloudflare Images 优化图片加载 132 | 133 | 3. **开发过程问题** 134 | - 如遇权限问题,使用管理员权限运行命令 135 | - 本地开发端口冲突,可在 `wrangler.toml` 中修改端口配置 136 | - 确保 `node` 版本符合项目要求 137 | 138 | 4. **框架特定问题** 139 | - Remix:注意路由配置和数据加载策略 140 | - Next.js:部分高级特性可能需要调整以适应 Workers 环境 141 | - Vue/React:确保构建输出适配 Workers 运行环境 142 | 143 | 更多参考资料: 144 | - [Cloudflare Workers 官方文档](https://developers.cloudflare.com/workers/) 145 | - [Workers 框架部署指南](https://developers.cloudflare.com/workers/frameworks/) 146 | - [Workers 限制与配额说明](https://developers.cloudflare.com/workers/platform/limits/) -------------------------------------------------------------------------------- /md/32.md: -------------------------------------------------------------------------------- 1 | ## gemini2.0 测试及本地使用、云端cline开发教程 cline+liteLLM+api 还有还强大好用的用法:你的ai代码编辑器+移动的vs code 2 | 3 | 交流群: 4 | 5 | 企微 https://qr61.cn/oohivs/qRp62U6 6 | 7 | Discord https://discord.gg/3JWMgKQznF 8 | 9 | ![视频](../assets/others/32.png) 10 | 11 | 12 | ### liteLLM安装及运行 13 | 14 | - 安装命令 15 | ```bash 16 | pip install litellm 17 | pip install -r requirements.txt 18 | ``` 19 | - requirements.txt 20 | ``` 21 | python-dotenv==1.0.0 # for env 22 | tiktoken==0.7.0 # for calculating usage 23 | importlib-metadata==6.8.0 # for random utils 24 | tokenizers==0.14.0 # for calculating usage 25 | click==8.1.7 # for proxy cli 26 | jinja2==3.1.4 # for prompt templates 27 | certifi==2024.7.4 # [TODO] clean up 28 | aiohttp==3.10.2 # for network calls 29 | tenacity==8.2.3 # for retrying requests, when litellm.num_retries set 30 | pydantic==2.7.1 # proxy + openai req. 31 | jsonschema==4.22.0 # validating json schema 32 | websockets==10.4 # for realtime API 33 | fastapi==0.111.0 # server dep 34 | backoff==2.2.1 # server dep 35 | orjson==3.9.15 # fast /embedding responses 36 | Pillow==10.3.0 37 | gunicorn 38 | pyyaml 39 | apscheduler 40 | cryptography 41 | opentelemetry-api==1.25.0 42 | opentelemetry-sdk==1.25.0 43 | opentelemetry-exporter-otlp==1.25.0 44 | ``` 45 | - 配置文件 config.yaml 46 | ``` 47 | model_list: 48 | - model_name: gemini-pro 49 | litellm_params: 50 | model: gemini/gemini-1.5-pro 51 | api_key: AIzaSyBMyt3uledq4ZgsswbmEiZdmfR6jtZAJao 52 | - model_name: gemini-2.0-flash 53 | litellm_params: 54 | model: gemini/gemini-2.0-flash-exp 55 | api_key: AIzaSyBMyt3uledq4ZgsswbmEiZdmfR6jtZAJao 56 | 57 | litellm_settings: 58 | drop_params: True 59 | ``` 60 | 61 | - 运行命令(根据config.yaml实际路径修改以下命令) 62 | ```bash 63 | litellm run --config /path/to/config.yaml 64 | ``` 65 | 66 | ### 相关链接 67 | - 【[视频教程](https://www.bilibili.com/video/BV1PuB5YmEhA/)】 68 | - 【[博客网站](/)】 69 | - 【[MarsCode IDE](https://www.bilibili.com/video/BV1JRStYCEsU/)】 70 | - 【[Gemini官网](https://aistudio.google.com/)】 71 | - 【[liteLLM官网](https://litellm.ai/)】 72 | - 同类视频同款 一键部署 open WebUI :https://www.bilibili.com/video/BV1tmSFY1ERb/ 73 | - 同类视频:https://www.bilibili.com/video/BV1DJDDYfEfD/ 74 | - 同款免费云主机:https://www.bilibili.com/video/BV1BJmSYFE2a/ 75 | - 同款且有一丁点门槛的云端超强IDE: https://www.bilibili.com/video/BV1JRStYCEsU/ -------------------------------------------------------------------------------- /md/34.md: -------------------------------------------------------------------------------- 1 | # 好用的VPN分享,你会用得上的虚拟专用网络 2 | 3 | 交流群: 4 | 5 | 企微 https://qr61.cn/oohivs/qRp62U6 6 | 7 | Discord https://discord.gg/3JWMgKQznF 8 | 9 | 10 | ![image](../assets/others/34.png) 11 | 12 | ## 开场白 13 | 大家好!今天我们聊聊VPN,它就像互联网的"任意门",帮你随时连接到想去的地方。 14 | 15 | ## 什么是VPN? 16 | VPN就像一座隐形桥,让你在互联网的海洋里自由、安全地穿梭。简单来说,VPN(虚拟专用网络)是在公共网络上建立的一条加密专用通道。 17 | 18 | ## 为什么需要VPN? 19 | 在这个数字化时代,VPN不仅保护你的数据安全,还让你的网络生活更便捷: 20 | - 📊 保护数据安全,就像给你的网络通信穿上了一件隐形衣 21 | - 🔒 访问企业内网,仿佛随身携带着公司的钥匙 22 | - 🏠 连接家庭网络,让你随时能够"回家" 23 | 24 | ## 精彩的应用场景 25 | 26 | ### 办公场景 - 化身"无处不在"的职场达人 27 | - 远程办公不再愁: 28 | - 轻松访问公司OA系统 29 | - 畅通无阻连接企业邮箱 30 | - 语音会议、视频会议一键参与 31 | 32 | ### 家庭应用 - 打造智能生活指挥中心 33 | - 随时随地掌控家庭设备: 34 | - 远程查看家庭监控 35 | - 访问家庭NAS存储 36 | - 串流观看家庭媒体库 37 | 38 | ### 出差必备 - 商务旅行出差得力助手 39 | - 在酒店:安全访问企业资源 40 | - 在机场:保护个人隐私 41 | - 在咖啡厅:远程处理工作事务 42 | 43 | ## VPN的与众不同 44 | 就像超级英雄的装备一样,优秀的VPN具备这些超能力: 45 | 46 | ### 1. 简单便捷 47 | - ⚡ 一键连接,秒速响应 48 | - 📱 全平台支持,手机电脑随心用 49 | - 🪶 轻量级设计,不影响系统性能 50 | 51 | ### 2. 安全可靠 52 | - 🔐 采用高级加密技术,保护你的数据 53 | - 🛡️ 多重认证,确保连接安全 54 | - 💪 稳定性能,持续保护你的网络 55 | 56 | ## VPN vs 内网穿透 57 | VPN和内网穿透有什么区别?让我们来看看: 58 | - VPN:就像是搭建了一条专属高速公路,全程都有警卫保护 59 | - 内网穿透:更像是在原有道路上开辟了一条小径,适合特定场景使用 60 | 61 | ## 使用教程 62 | 视频中讲得非常详细,可以参考视频教程。 63 | 64 | 看雪的VPN:[https://ksa.kanxue.com/](https://ksa.kanxue.com/) 65 | EasyTier的VPN:[https://www.easytier.top/](https://www.easytier.top/) 66 | 67 | 代码: 68 | ```bash 69 | chmod +x ksa_x64 && ./ksa_x64 70 | ``` 71 | 请在 ksa_x64 目录下执行。 72 | 73 | 【[小红书视频教程](https://www.xiaohongshu.com/discovery/item/676423360000000014027b07?source=webshare&xhsshare=pc_web&xsec_token=ABzf-fhLZ0oyTNquAKp6YNFgPkCadC2a9ixPqggV3w3dU=&xsec_source=pc_share)】 74 | 75 | 【[抖音视频教程](https://v.douyin.com/iUuBh1Mt/)】 76 | 77 | 请 与 免费的GPU云主机 一起食用,效果一 级棒! 【[视频教程](https://www.bilibili.com/video/BV1nMzNYHEd6/)】 78 | 79 | ## 总结 80 | VPN就像是一把万能钥匙,打开互联网的大门,让你随时随地都能享受安全、便捷的网络体验。 81 | 82 | 83 | -------------------------------------------------------------------------------- /md/35.md: -------------------------------------------------------------------------------- 1 | # Cursor Free Trial Reset Tool: 优雅解决Cursor试用期限制 2 | 3 | 交流群: 4 | 5 | 企微 https://qr61.cn/oohivs/qRp62U6 6 | 7 | Discord https://discord.gg/3JWMgKQznF 8 | 9 | 10 | ## 引言 11 | 12 | Cursor作为一款强大的AI辅助编程工具,深受开发者喜爱。然而,在免费试用期间,用户可能会遇到使用限制的提示: 13 | 14 | ``` 15 | Too many free trial accounts used on this machine. 16 | Please upgrade to pro. We have this limit in place 17 | to prevent abuse. Please let us know if you believe 18 | this is a mistake. 19 | ``` 20 | 21 | 今天为大家介绍一个开源工具 - Cursor Free Trial Reset Tool,它可以帮助我们优雅地解决这个问题。 22 | 23 | 【[视频教程](https://www.bilibili.com/video/BV1H3ktYtEUy/)】 [开源项目地址](https://github.com/yuaotian/go-cursor-help) 24 | 25 | ![Cursor Free Trial Reset Tool](../assets/others/35.jpg) 26 | 27 | 【[视频教程](https://www.bilibili.com/video/BV1H3ktYtEUy/)】 28 | 29 | ## 实现原理 30 | 31 | 这个工具的核心原理其实很简单,主要通过修改Cursor的配置文件来实现重置。具体来说: 32 | 33 | 1. **配置文件位置** 34 | - Windows: `%APPDATA%\Cursor\User\globalStorage\storage.json` 35 | - macOS: `~/Library/Application Support/Cursor/User/globalStorage/storage.json` 36 | - Linux: `~/.config/Cursor/User/globalStorage/storage.json` 37 | 38 | 2. **关键字段** 39 | 工具会修改以下几个关键的唯一标识符: 40 | - telemetry.machineId 41 | - telemetry.macMachineId 42 | - telemetry.devDeviceId 43 | - telemetry.sqmId 44 | 45 | 通过生成新的UUID来替换这些字段,从而达到重置试用期的目的。 46 | 47 | ## 使用方法 48 | 49 | ### 自动安装(推荐) 50 | 51 | 1. **Windows系统**(以管理员身份运行PowerShell): 52 | ```powershell 53 | irm https://raw.githubusercontent.com/yuaotian/go-cursor-help/master/scripts/install.ps1 | iex 54 | ``` 55 | 如果github访问不了,可以使用镜像源: 56 | ```powershell 57 | irm https://gh.bbc.us.kg/https://raw.githubusercontent.com/yuaotian/go-cursor-help/master/scripts/install.ps1 | iex 58 | ``` 59 | 60 | 2. **Linux/macOS系统**: 61 | ```bash 62 | curl -fsSL https://raw.githubusercontent.com/yuaotian/go-cursor-help/master/scripts/install.sh | sudo bash 63 | ``` 64 | 65 | ### 手动配置方法 66 | 67 | 1. 完全关闭Cursor 68 | 2. 找到并备份配置文件`storage.json` 69 | 3. 修改配置文件中的相关字段,替换为新的UUID 70 | 4. 保存文件并重启Cursor 71 | 72 | ## 安全特性 73 | 74 | 该工具设计了多重安全保障机制: 75 | - 自动备份现有配置 76 | - 安全的进程终止 77 | - 原子文件操作 78 | - 错误处理和回滚 79 | 80 | ## 系统兼容性 81 | 82 | 工具支持主流操作系统: 83 | - Windows (x64) 84 | - macOS (Intel & M系列芯片) 85 | - Linux (x64 & ARM64) 86 | 87 | 【[视频教程](https://www.bilibili.com/video/BV1H3ktYtEUy/)】 88 | 89 | ## 结语 90 | 91 | 这个工具为我们提供了一个简单而有效的解决方案。它的开源性质也让我们能够审查其代码,确保安全性。不过需要提醒的是,工具仅供学习和研究使用,建议有条件的用户支持正版,享受完整的服务体验。 92 | -------------------------------------------------------------------------------- /md/36.md: -------------------------------------------------------------------------------- 1 | # bolt.new的安装 2 | 3 | ### 加入社区 4 | 5 | - 企微 https://qr61.cn/oohivs/qRp62U6 6 | - Discord https://discord.gg/3JWMgKQznF 7 | 8 | 【[bolt.diy线上部署教程](https://www.bilibili.com/video/BV1xHCgYDET4/)】【[DEMO](https://bolt.remix.us.kg/)】 9 | 10 | ![bolt.diy](../assets/others/36.jpg) 11 | 12 | #### 为获得最佳的 bolt.diy 使用体验,我们推荐以下模型: 13 | 14 | - Claude 3.5 Sonnet (旧版): 全能型最佳编码模型,适用于各种场景。 15 | - Gemini 2.0 Flash: 速度极快,同时保持出色性能。 16 | - GPT-4o: Claude 3.5 Sonnet 的强大替代品,性能相当。 17 | - DeepSeekCoder V2 236b: 最佳开源模型,可通过 OpenRouter、DeepSeek API 或自托管使用。 18 | - Qwen 2.5 Coder 32b: 自托管的首选模型,对硬件要求适中。 19 | 20 | 注意: 参数少于 70 亿的模型通常无法有效与 bolt.diy 交互。 21 | 22 | 23 | ## 安装 24 | 25 | ### 线上部署 bolt.diy 视频教程 26 | 27 | **B站** 【[bolt.diy线上部署教程](https://www.bilibili.com/video/BV1xHCgYDET4/)】 28 | 29 | **油管** 【[bolt.diy线上部署教程](https://youtu.be/EIAM20LJods/)】 30 | 31 | **DEMO** 【[bolt.diy](https://bolt.remix.us.kg/)】 32 | 33 | #### cloudflare pages 部署相关设置: 34 | - [fork项目地址](https://github.com/aigem/bolt.diy) 35 | - 构建命令: 36 | pnpm run build 37 | - 构建输出: 38 | build/client 39 | - 根目录: 40 | 41 | ### 本地安装 bolt.diy 42 | 43 | 1. **安装 Git** 44 | - 下载并安装 [Git](https://git-scm.com)。 45 | 46 | 2. **安装 Node.js** 47 | - 下载并安装 [Node.js](https://nodejs.org)。 48 | - 安装完成后,Node.js 的路径通常会自动添加到系统环境变量中。 49 | 50 | 3. **安装 pnpm** 51 | - 在终端运行以下命令安装 `pnpm` 并设置为腾讯的源: 52 | ```bash 53 | sudo npm install -g pnpm 54 | pnpm config set registry https://mirrors.cloud.tencent.com/npm/ 55 | ``` 56 | 57 | 4. **克隆仓库** 58 | - 使用 Git 克隆代码仓库: 59 | ```bash 60 | git clone -b stable https://github.com/stackblitz-labs/bolt.diy 61 | ``` 62 | 63 | 5. **安装依赖** 64 | - 进入克隆后的仓库目录,并运行以下命令安装依赖: 65 | ```bash 66 | cd bolt.diy 67 | pnpm install 68 | ``` 69 | 70 | 6. **启动应用程序** 71 | - 运行以下命令启动开发环境: 72 | ```bash 73 | pnpm run dev 74 | ``` 75 | 76 | 按照上述步骤操作,即可成功运行应用程序! 77 | 78 | ### 相关链接 79 | - [fork项目地址](https://github.com/aigem/bolt.diy) 80 | - 【[bolt.new](https://bolt.new/)】 81 | - 【[bolt.diy](https://bolt.diy/)】 82 | - 【[DEMO](https://bolt.remix.us.kg/)】 83 | - 【[大佬用bolt.new做的视频游戏DEMO](https://hand-lab.netlify.app/)】 84 | 85 | ![bolt.diy](../assets/others/36-1.png) 86 | -------------------------------------------------------------------------------- /md/38.md: -------------------------------------------------------------------------------- 1 | 2 | 3 | 大家好 4 | Deepseek v3 版本已经静悄悄的上线了。 5 | 它的聊天页面和API都可以用了 6 | 这个就是Aider的一个测试基准分数 7 | 它包含225道高难度编程题组成, 8 | 覆盖众多的编程语言 9 | 看一下第一名的,就是OpenAI刚发布的o1模型 10 | 之后到了我们的Deepseek v3预览版 11 | 之后才到claude 3.5 Sonnet 12 | 所以它的编程能力是非常强的 13 | 再看一下这一个基准测试 14 | 可以看到Deepseek下面的两个模型是GAMINI 2 Flash和claude 3.5 sonnet模型。 15 | 可以看到它分数相当的亮眼,名列前茅 16 | 在开源模型中真的非常强大。 17 | 这个就是用V3版本做的游戏, 18 | 大家可以看一下好,非常有意思。 19 | 现在我们来测试一下吧 20 | 首先我们用API在Open web ui 中进行测试 21 | 首先问一下他的版本,验明正身。 22 | 他说他就是V3,深度求索公司开发的智能助手 23 | 现在开测这个开源中最强大的一个模型吧 24 | 第一题正确 25 | 26 | 27 | -------------------------------------------------------------------------------- /md/40.md: -------------------------------------------------------------------------------- 1 | # Deepseek v3 api + cline +cursor 2 | 3 | 【[视频教程](https://www.bilibili.com/video/BV11i6nYgEgS/)】 4 | 5 | deepseek官网:[deepseek.com](https://www.deepseek.com/) 6 | 国内ide: [cloudstudio.net](https://cloudstudio.net/) 7 | bolt.diy + api :[视频教程](https://www.bilibili.com/video/BV1SSCJYpEYm/) 8 | 9 | ## 在cloudstudio.net中部署deepseek v3免费API 10 | 11 | ![deepseek](../assets/others/40.png) 12 | 13 | 14 | - 在cloudstudio.net 创建all in one 项目 15 | - 新建终端 16 | - 输入 git clone https://github.com/LLM-Red-Team/deepseek-free-api.git 17 | 如果不能克隆,请使用 git clone https://gh-proxy.com/https://github.com/LLM-Red-Team/deepseek-free-api.git 18 | - 克隆完成后,输入 cd deepseek-free-api 19 | - 输入 npm install 20 | - 输入 npm run build 21 | - 输入 node dist/index.js 22 | 免费api部署完成,打开端口转发的网址就可以看到deepseek v3的api了 23 | 24 | 25 | -------------------------------------------------------------------------------- /md/41.md: -------------------------------------------------------------------------------- 1 | # 四年磨一剑 浏览器里的桌面系统竟然这么丝滑 教你安装部署daedalOS 2 | 3 | 【[视频教程](https://www.bilibili.com/video/BV1GX6qYeEKw/)】 4 | 5 | ![daedalOS](../assets/others/41.png) 6 | 7 | ### 本地安装流程: 8 | 9 | - git clone https://github.com/DustinBrett/daedalOS.git 10 | 如果不能克隆,请使用 11 | ``` 12 | git config --global url."https://gh-proxy.com/".insteadOf https:// 13 | git clone https://github.com/DustinBrett/daedalOS.git 14 | cd daedalOS 15 | npm install -g yarn 16 | yarn install 17 | yarn build 18 | yarn serve 19 | ``` 20 | 21 | ### 云端安装流程: 22 | 可选 marscode.com 或 cloudstudio.net 23 | 24 | marscode.com : ([视频教程](https://www.bilibili.com/video/BV1JRStYCEsU/)) 25 | 26 | 确保安装了 node 和 yarn ,安装命令同上。 27 | 28 | 29 | -------------------------------------------------------------------------------- /md/52.md: -------------------------------------------------------------------------------- 1 | ## 本地免费部署deepseek R1模型快速拥有自己的RAG 2 | 3 | 本地使用deepseek R1模型+anythingLLM快速部署RAG,有手就行,完全免费,简单快速 4 | 5 | 亲测稳定好用梯子128元一年:https://flowercloud.net/aff.php?aff=7344 6 | 7 | nsfw r1 模型: https://huggingface.co/collections/huihui-ai/deepseek-r1-abliterated-6790ea12ce8c8c4e5df51b7f 8 | 9 | ollama 官网: https://ollama.com/ 10 | anythingLLM 官网: https://anythingllm.com/ 11 | 超算中心:https://chat.scnet.cn/#/home 12 | 13 | 逆向API: https://www.bilibili.com/video/BV11i6nYgEgS/ 14 | 15 | 交流群: 16 | 企微 https://qr61.cn/oohivs/qRp62U6 17 | Discord https://discord.gg/3JWMgKQznF 18 | 19 | 20 | 大家新年好。给大家送上一个deepseek利器,利用DeepSeek加Anything LLM来快速打造你自己的RAG知识管理系统,人人都可以拥有,完全免费。你的返工必备,让我们开始吧。 21 | 22 | 本视频使用本地主机安装ollama来部署deepseek R1相关模型。 23 | 之后我们就能使用anything LLM 来快速实现我们的知识库及知识管理系统。 24 | 为什么选择anything LLM呢? 25 | 它支持PDF/TXT/DOCX/CSV等众多格式解析,集成向量化引擎,自动同步GitHub等数据源进行动态知识更新,保密性好,特别适合需要高精度、强时效、严合规等场景中使用。 26 | 现在,我们只需要点击这里,看到支持三大桌面平台,下载相应的 anything LLM的桌面软件,安装后打开。 27 | 28 | 大家使用默认设置进入到anythingLLM中,我们点击左下角的扳手标志进行软件的设置。 29 | 进入人工智能供应商下的LLM首选项中,我们选择先选择供应商,我们有四种方式在anything LLM中使用deepseek,第一就是deepseek的官方api,但因为某些原因,现在申请不了API,过一段时间应该就会恢复的,推荐这种方式。第二种是我往期视频中分享过的逆向API获取到的免费API,可能不太稳定,有兴趣可以看我往期视频,视频链接放在视频下方。第三种就是本地安装ollama,如果显卡不好或没有显卡,还有第四种方法最适合不过了。 30 | 本视频使用第三种方法来实现,首先需要在本地安装ollama,在官网这里直接下载安装就行。本视频以windows主机为例,在ollama中下载deepseek模型。安装并运行ollama后,我们打开命令提示符,也就是CMD终端,使用命令 ollama run deepseek-r1:7b就自动下载并运行模型。我们来测试一下,随便问一个问题,看到回答速度不错,输入斜杆加bye来退出对话。在浏览器中打开 127.0.0.1:11434,会看到“Ollama is running”。 31 | 在anythingLLM中,ollama的base url填入127.0.0.1:11434。正确输入后,ollama model中就能选择ollama已经下载的模型。我们选择14B模型来使用。我们点击左下角的返回标志返回到对话界面中, 32 | 我们测一下连接正确否,随便问它一个问题。看到了正确的回答,你个人的RAG就搭建成功了。 33 | 34 | 要使用rag还需要下载embedding模型,推荐[bge-m3](https://ollama.com/library/bge-m3)和[nomic](https://ollama.com/library/nomic-embed-text),我们来到 bge-m3的页面中,使用这一行命令来下载模型,复制后来到CMD终端中粘贴来下载模型。 35 | 之后,我们点击这个扳手图标,来到anythingLLM设置中,来到embedder选项中,选择ollama,选择刚才下载好的bge-m3模型。全部设置完成了。 36 | 要如何使用RAG呢,比如这个视频的总结内容,我这里点击左下角的附件按钮,上传视频的字幕文件,并让deepseek给我们总结,很快就得到视频总结的内容了。 37 | 整个部署及使用教程就完成了, 38 | 39 | 最后,我还来说说如何不受限制的使用LLM,很简单,只需要使用这一个模型,我们还是以14B为例,点击进来后,使用最后面的那一行命令来下载模型就行了。 40 | 好了,祝大家开工大吉,你们的点赞关注正好是我需要的,谢谢。 41 | 补充一下两条关于deepseek的资讯,官网今天恢复了联网搜索。超算互联网上也可以用deepseek 蒸馏的模型了,现在有7,14,32B三个模型可用。 42 | 我们下期视频再见。 43 | 44 | -------------------------------------------------------------------------------- /md/7.md: -------------------------------------------------------------------------------- 1 | 2 | # 安装相应工具(可选) 3 | 4 | 交流群: 5 | 6 | 企微 https://qr61.cn/oohivs/qRp62U6 7 | 8 | Discord https://discord.gg/3JWMgKQznF 9 | 10 | ```bash 11 | apt update 12 | apt install curl -y 13 | ``` 14 | 15 | ![image](../assets/bolt-windows-ollama/7.jpg) 16 | 17 | ## 相关链接 18 | 【[视频教程](https://www.bilibili.com/video/BV1V1DHYJE6h/)】 19 | 【[watt toolkit使用](https://www.bilibili.com/video/BV1zT421979q/)】 20 | 21 | # 检查是否安装了git 22 | ```bash 23 | git --version 24 | ``` 25 | 26 | # 检查是否安装了node 27 | ```bash 28 | if [ -z "$(node -v)" ]; then 29 | echo "node is not installed" 30 | # 安装node 20 31 | curl -sL https://deb.nodesource.com/setup_20.x | bash - 32 | apt-get install -y nodejs 33 | fi 34 | ``` 35 | 36 | # 设置npm源为腾讯源 37 | ```bash 38 | npm config set registry https://mirrors.cloud.tencent.com/npm/ 39 | ``` 40 | 41 | # 检查是否安装了pnpm 42 | ```bash 43 | if [ -z "$(pnpm -v)" ]; then 44 | echo "pnpm is not installed" 45 | # 安装pnpm 46 | npm install -g pnpm 47 | fi 48 | ``` 49 | 50 | # 设置pnpm源为腾讯源 51 | ```bash 52 | pnpm config set registry https://mirrors.cloud.tencent.com/npm/ 53 | ``` 54 | 55 | # git clone 56 | ```bash 57 | git clone https://github.com/coleam00/bolt.new-any-llm.git 58 | cd bolt.new-any-llm 59 | pnpm install 60 | mv .env.example .env.local 61 | ``` 62 | 63 | # 填入API KEY 64 | 在.env.local文件中填入API KEY 65 | 66 | ## 获取mistral.ai的API KEY 67 | https://mistral.ai/ 68 | 69 | ## 使用ollama 70 | https://ollama.com/ 71 | 默认端口为11434,API地址为http://localhost:11434 72 | 73 | # 运行 (windows) 74 | ```bash 75 | pnpm run dev 76 | ``` 77 | 78 | 【[视频教程](https://www.bilibili.com/video/BV1V1DHYJE6h/)】 -------------------------------------------------------------------------------- /md/8.md: -------------------------------------------------------------------------------- 1 | # 永远在线的个人全栈ai开发平台部署教程,cloudflare pages+魔改强化版bolt+free ai api=全能开发 2 | 3 | 交流群: 4 | 5 | 企微 https://qr61.cn/oohivs/qRp62U6 6 | 7 | Discord https://discord.gg/3JWMgKQznF 8 | 9 | ## 【[视频教程](https://www.bilibili.com/video/BV1M8DTYPEJZ/)】 10 | 11 | ## 【[博客网站](/)】 12 | 13 | ![image](../assets/others/8.jpg) 14 | 15 | ## cloudflare pages 部署 16 | 17 | ## 魔改强化版bolt 18 | 19 | ## 项目地址 20 | ``` 21 | https://github.com/coleam00/bolt.new-any-llm 22 | ``` 23 | 24 | ## 部署教程 25 | - 按视频教程操作即可 26 | - 【注意】部署不成功,请记得在你fork的仓库中,将根目录下的 .tool-versions 的内容清空 27 | 28 | ## 【[视频教程](https://www.bilibili.com/video/BV1M8DTYPEJZ/)】 29 | 30 | ## 免费AI API 31 | - 【[mistral.ai](https://mistral.ai/)】 32 | - 【[ollama](https://ollama.com/)】 33 | - 【[groq](https://groq.com/)】 34 | - 【[openrouter](https://openrouter.ai/)】 35 | - 【[gemini](https://gemini.google.com/)】 36 | - 【[grok](https://x.ai/)】 37 | - 【[gpt-4o](https://www.bilibili.com/video/BV1KcDwYUEC6/)】 38 | -------------------------------------------------------------------------------- /md/9.md: -------------------------------------------------------------------------------- 1 | # 【平替cursor新选择】Cline + litellm + Gpt-4o API 本地及云端部署教程 2 | 3 | 交流群: 4 | 5 | 企微 https://qr61.cn/oohivs/qRp62U6 6 | 7 | Discord https://discord.gg/3JWMgKQznF 8 | 9 | 本指南提供了在本地和云端IDE中安装和使用Cline + litellm + Gpt-4o API 的说明。 10 | 11 | ## 视频教程 12 | 13 | 视频教程请点击【[这里](https://www.bilibili.com/video/BV1DJDDYfEfD/)】 14 | 15 | ![image](../assets/others/9.png) 16 | 17 | ## IDE安装 18 | 19 | ### 本地IDE 20 | - Visual Studio Code (VSCode) 21 | 22 | ### 云端IDE 23 | - Marscode IDE(如前所述) 24 | 25 | ## 安装 litellm 26 | 27 | ### 什么是 litellm? 28 | Litellm 是一个用于与语言模型交互的轻量级库。 29 | 30 | ### 安装命令 31 | 要安装 litellm,请运行以下命令: 32 | 33 | ```bash 34 | pip install litellm 35 | 36 | # 安装litellm 需要的依赖,requirements.txt 内容在附录 37 | pip install -r requirements.txt 38 | ``` 39 | 40 | ### 设置环境变量 41 | 确保您已设置必要的API密钥: 42 | 43 | ```bash 44 | export GITHUB_API_KEY=your_github_api_key_here 45 | ``` 46 | 47 | 将 `your_github_api_key_here` 替换为您的实际GitHub API密钥。 48 | 49 | ### 运行 litellm 50 | 要使用 GPT-4o 模型运行 litellm,请使用以下命令: 51 | 52 | ```bash 53 | litellm --model github/gpt-4o 54 | ``` 55 | 56 | ## 获取 GitHub 模型 API [获取免费GPT-4o API教程](https://www.bilibili.com/video/BV1KcDwYUEC6/) 57 | 要获取 GitHub 模型 API,请访问以下链接:[GitHub Models Marketplace](https://github.com/marketplace/models) 58 | 59 | 视频教程请点击[这里](#)。 60 | 61 | ## 测试使用 Gpt-4o API 来编程 62 | 您可以在本地和云端IDE中测试 Gpt-4o API。 63 | 64 | ## 部署 litellm 以便日常使用 65 | ### 一键部署 66 | - 使用项目首页的一键部署选项。 67 | 68 | ### Hugging Face 部署 69 | - 在 Hugging Face 上复制项目进行部署。更多详情请参阅下面链接的视频。 70 | 71 | ## 其他资源 72 | - [视频教程](https://www.bilibili.com/video/BV1DJDDYfEfD/) 73 | - [相关IDE介绍](./2.md) 74 | - [LiteLLM项目主页](https://github.com/BerriAI/litellm) 75 | - [Cline项目主页](https://github.com/claude-ai/cline) 76 | - [获取免费GPT-4o API](https://www.bilibili.com/video/BV1KcDwYUEC6/) 77 | 78 | ## 附litellm 需要的依赖:requirements.txt 79 | ``` 80 | python-dotenv==1.0.0 # for env 81 | tiktoken==0.7.0 # for calculating usage 82 | importlib-metadata==6.8.0 # for random utils 83 | tokenizers==0.14.0 # for calculating usage 84 | click==8.1.7 # for proxy cli 85 | jinja2==3.1.4 # for prompt templates 86 | certifi==2024.7.4 # [TODO] clean up 87 | aiohttp==3.10.2 # for network calls 88 | tenacity==8.2.3 # for retrying requests, when litellm.num_retries set 89 | pydantic==2.7.1 # proxy + openai req. 90 | jsonschema==4.22.0 # validating json schema 91 | websockets==10.4 # for realtime API 92 | fastapi==0.111.0 # server dep 93 | backoff==2.2.1 # server dep 94 | orjson==3.9.15 # fast /embedding responses 95 | Pillow==10.3.0 96 | gunicorn 97 | pyyaml 98 | apscheduler 99 | cryptography 100 | opentelemetry-api==1.25.0 101 | opentelemetry-sdk==1.25.0 102 | opentelemetry-exporter-otlp==1.25.0 103 | ``` 104 | -------------------------------------------------------------------------------- /posts/index.md: -------------------------------------------------------------------------------- 1 | # 文章目录 2 | 3 | - [2024年五大开源RAG/LLM工具深度对比:让AI应用开发更简单](./mds/1.md) 【[原文链接](/posts/mds/1.md)】 4 | -------------------------------------------------------------------------------- /posts/mds/1.md: -------------------------------------------------------------------------------- 1 | # 深入分析五大开源RAG/LLM工具:让AI应用开发更简单 2 | 3 | 在人工智能(AI)快速发展的今天,**检索增强生成(RAG)**技术已成为构建智能AI应用的关键。本文将深入分析五个热门的开源RAG工具,帮助您选择最适合的解决方案。 4 | 5 | ## 为什么选择RAG框架? 6 | 7 | RAG技术通过将检索系统与生成模型相结合,能够显著提升AI应用的准确性和可靠性。选择合适的RAG框架可以: 8 | 9 | - 📉 **降低开发成本和复杂度**:简化开发流程,减少重复工作。 10 | - 📈 **提高AI应用的响应质量**:通过智能检索,提供更精准的答案。 11 | - 📚 **更好地处理和利用企业知识库**:高效整合企业内部的数据资源。 12 | - ✅ **确保AI回答的准确性和可靠性**:结合检索结果,避免生成错误信息。 13 | - 🔒 **保护数据隐私和安全**:支持本地部署,保障数据安全。 14 | 15 | ## 目录 16 | 17 | 1. [n8n_io:最强大的工作流自动化平台](#n8nio) 18 | 2. [AutoRAG:高效自动化RAG管道](#autorag) 19 | 3. [LLMWare:企业级LLM管理工具](#llmware) 20 | 4. [R2R:灵活的本地RAG应用框架](#r2r) 21 | 5. [Cognita:生产级模块化框架](#cognita) 22 | 6. [工具对比分析](#工具对比分析) 23 | 7. [选型建议](#选型建议) 24 | 8. [结论](#结论) 25 | 26 | ## n8n_io 27 | 28 | ### 概述 29 | [n8n_io](n8n.io/) 是一个强大的开源自动化平台,特别适合构建企业级RAG应用。通过整合**Ollama**的本地LLM服务和**Qdrant**作为向量数据库,提供了完整的AI应用开发解决方案。 30 | 31 | ### 核心优势 32 | - 🚀 **422+预置集成接口**:支持与现有系统的无缝对接。 33 | - 💡 **可视化工作流设计**:无需编码即可构建复杂工作流。 34 | - 🔒 **支持本地部署**:确保数据安全性。 35 | - 🤖 **AI工具集成**:与Ollama和Qdrant等AI工具无缝协作。 36 | - 📊 **丰富的数据处理能力**:支持多种数据源和格式。 37 | 38 | ### 最佳使用场景 39 | - 企业级AI工作流自动化。 40 | - 需要大量系统集成的项目。 41 | - 注重数据安全的组织。 42 | - RAG聊天机器人开发。 43 | - 复杂业务流程自动化。 44 | 45 | ### 局限性 46 | - 初期学习曲线较陡。 47 | - 对于不熟悉自动化平台的用户,配置可能较为复杂。 48 | - 某些高级功能需要付费订阅。 49 | 50 | ## AutoRAG 51 | 52 | ### 概述 53 | [AutoRAG](github.com/Marker-Inc-Korea/AutoRAG) 是一个高效的自动化RAG管道,旨在简化RAG系统的构建和部署过程。 54 | 55 | ### 核心优势 56 | - ⚡ **快速部署**:简化RAG系统的设置流程。 57 | - 🔍 **高效检索**:优化的检索算法提升查询速度和准确性。 58 | - 🤖 **模型集成**:支持多种生成模型,灵活选择最适合的模型。 59 | - 📈 **性能监控**:内置监控工具,实时跟踪系统表现。 60 | 61 | ### 最佳使用场景 62 | - 快速构建和测试RAG系统。 63 | - 需要多模型支持的应用。 64 | - 追求高性能检索和生成的项目。 65 | 66 | ### 局限性 67 | - 功能相对基础,适合初期开发。 68 | - 高级定制化需求可能需要额外开发。 69 | 70 | ## LLMWare 71 | 72 | ### 概述 73 | [LLMWare](www.llmware.ai/) 是一个企业级的LLM管理工具,专注于大规模生成模型的部署和管理。 74 | 75 | ### 核心优势 76 | - 🏢 **企业级支持**:专为大型企业设计,支持高并发和高可靠性需求。 77 | - ⚙️ **自动化管理**:简化模型的部署、更新和监控流程。 78 | - 🔒 **安全性**:提供高级的安全功能,确保数据和模型的安全。 79 | - 📊 **数据分析**:强大的分析工具,帮助理解模型表现和用户行为。 80 | 81 | ### 最佳使用场景 82 | - 大型企业的AI项目。 83 | - 需要高可靠性和安全性的应用。 84 | - 大规模生成模型的管理和优化。 85 | 86 | ### 局限性 87 | - 成本较高,不适合预算有限的项目。 88 | - 复杂的功能可能需要专业团队进行运维。 89 | 90 | ## R2R 91 | 92 | ### 概述 93 | [R2R](www.r2r-framework.com/) 是一个灵活的本地RAG应用框架,适合对本地部署有高要求的用户。 94 | 95 | ### 核心优势 96 | - 🛠️ **高度可定制**:用户可以根据需求定制框架功能。 97 | - 🌐 **本地部署**:确保数据在本地环境中处理,提升数据隐私。 98 | - 🔄 **稳定性**:经过多次优化,提供稳定的运行环境。 99 | 100 | ### 最佳使用场景 101 | - 对数据隐私有严格要求的行业,如政府和医疗。 102 | - 需要本地部署的企业AI应用。 103 | - 用户希望对RAG系统进行高度定制化的项目。 104 | 105 | ### 局限性 106 | - 本地部署可能需要更多的技术支持。 107 | - 配置和维护较为复杂,不适合初学者。 108 | 109 | ## Cognita 110 | 111 | ### 概述 112 | [Cognita](docs.cognita.ai/) 是一个生产级的模块化RAG框架,提供丰富的功能和高扩展性。 113 | 114 | ### 核心优势 115 | - 🔗 **模块化设计**:易于扩展和维护。 116 | - 🚀 **高效性能**:优化的性能设计,适合高负载应用。 117 | - 📈 **全面支持**:支持从原型到生产环境的完整生命周期管理。 118 | - 💼 **企业级功能**:适合大规模企业应用和复杂项目需求。 119 | 120 | ### 最佳使用场景 121 | - 需要从原型到生产环境无缝过渡的项目。 122 | - 大型企业和复杂应用场景。 123 | - 需要高度模块化和可扩展性的RAG系统。 124 | 125 | ### 局限性 126 | - 学习曲线较陡,需要一定的技术基础。 127 | - 资源占用较高,对环境配置要求较高。 128 | 129 | ## 工具对比分析 130 | 131 | 为了帮助您更好地选择适合的RAG框架,我们从以下几个方面进行了对比分析: 132 | 133 | 1. **性能指标**:使用召回率、精确度和F分数等指标评估各工具在RAG和LLM任务中的表现。 134 | 2. **集成能力**:评估工具与Ollama和Qdrant等系统的集成程度。 135 | 3. **用户界面与易用性**:考虑每个工具的用户界面设计和对非技术用户的友好程度。 136 | 4. **可扩展性与定制化**:评估工具的模块化程度和定制选项。 137 | 5. **离线功能**:特别是对于R2R,评估其离线工作的能力。 138 | 6. **行业趋势适应性**:考量每个工具如何适应当前RAG和LLM应用的趋势和最佳实践。 139 | 140 | ### 性能指标 141 | 通过综合分析各工具在不同任务中的表现,**AutoRAG**在高召回率和精确度方面表现出色,适合需要高准确性的应用。而**LLMWare**在处理大规模数据时展现了卓越的性能,适合企业级需求。 142 | 143 | ### 集成能力 144 | **n8n_io**凭借其丰富的预置集成接口,能够与多种系统无缝对接,极大地简化了工作流的构建过程。**Cognita**的模块化设计也使其在集成上具有很高的灵活性。 145 | 146 | ### 用户界面与易用性 147 | 对于非技术用户,**n8n_io**的可视化工作流设计提供了友好的用户体验。而**R2R**虽然功能强大,但界面相对复杂,需要一定的技术背景才能高效使用。 148 | 149 | ### 可扩展性与定制化 150 | **Cognita**的模块化架构使其在可扩展性和定制化方面表现优异,适合复杂和多变的项目需求。**AutoRAG**则提供了良好的定制选项,能够根据具体需求进行调整。 151 | 152 | ### 离线功能 153 | **R2R**在离线部署方面表现突出,确保了数据隐私和安全,适合对本地部署有高要求的应用场景。 154 | 155 | ### 行业趋势适应性 156 | **LLMWare**通过持续的更新和优化,紧跟AI和自然语言处理技术的 157 | 158 | ## 选型建议 159 | 160 | 根据不同场景,我们推荐: 161 | 162 | 1. **企业自动化需求** → **n8n_io** 163 | - 适合需要广泛集成的企业。 164 | - 重视工作流自动化的团队。 165 | 166 | 2. **性能优化需求** → **AutoRAG** 167 | - 追求最佳检索效果。 168 | - 有技术团队支持。 169 | 170 | 3. **快速部署需求** → **LLMWare** 171 | - 资源受限环境。 172 | - 需要快速验证概念。 173 | 174 | 4. **隐私安全需求** → **R2R** 175 | - 政府/金融机构。 176 | - 医疗健康领域。 177 | 178 | 5. **生产环境需求** → **Cognita** 179 | - 大型企业应用。 180 | - 需要高度定制化。 181 | 182 | ## 结论 183 | 184 | 在众多开源RAG/LLM工具中,**n8n_io**和**Cognita**因其强大的功能和灵活性脱颖而出。**n8n_io**以其广泛的集成能力和无代码工作流创建功能,适合开发者和AI爱好者快速构建应用;而**Cognita**则通过其模块化架构和对生产环境的全面支持,成为企业级项目的理想选择。 185 | 186 | **AutoRAG**、**LLMWare**和**R2R**虽然在信息量上略显不足,但各自在自动化、企业管理和多文件处理等方面展示出独特优势,适用于特定的应用场景。 187 | 188 | 在选择合适的RAG/LLM工具时,建议开发者和企业根据项目规模、技术能力以及具体功能需求,深入评估每个工具的特点,并进行实际测试。随着AI和自然语言处理技术的不断进步,这些工具也将持续演化,为用户提供更加强大和智能的解决方案。 189 | 190 | ## 参考文献 191 | 192 | 1. [n8n_io 官方网站](n8n.io/) 193 | 2. [AutoRAG 教程](docs.auto-rag.com/tutorial.html) 194 | 3. [LLMWare 平台介绍](dev.to/rohan_sharma/llmwareai-a-revolutionary-python-platform-that-will-accelerate-your-enterprise-3d84) 195 | 4. [R2R 在LinkedIn的介绍](www.linkedin.com/posts/shubhamsaboo_5-opensource-frameworks-to-build-llm-apps-activity-7244187619230683136-gfsq) 196 | 5. [Cognita 发布资讯](www.marktechpost.com/2024/04/18/truefoundry-releases-cognita-an-open-source-rag-framework-for-building-modular-and-production-ready-applications/) 197 | 198 | *注:本文将持续更新,欢迎分享您的使用经验和建议。* -------------------------------------------------------------------------------- /src/n8n-fanyi-api/easy-fanyi-workflow.json: -------------------------------------------------------------------------------- 1 | { 2 | "name": "沉浸API+", 3 | "nodes": [ 4 | { 5 | "parameters": { 6 | "assignments": { 7 | "assignments": [ 8 | { 9 | "id": "a99545ff-05e4-4c97-a675-b9dddca5b36d", 10 | "name": "text", 11 | "value": "={{ $json.body.text_list }}", 12 | "type": "array" 13 | } 14 | ] 15 | }, 16 | "options": {} 17 | }, 18 | "id": "31a1b18e-ec7e-4431-8370-56c83dba82f1", 19 | "name": "Edit Fields1", 20 | "type": "n8n-nodes-base.set", 21 | "typeVersion": 3.4, 22 | "position": [ 23 | 800, 24 | 180 25 | ] 26 | }, 27 | { 28 | "parameters": { 29 | "options": { 30 | "separator": "\\n" 31 | } 32 | }, 33 | "id": "0b302bf5-e48c-4067-9130-5068e4c0ddb3", 34 | "name": "Item List Output Parser", 35 | "type": "@n8n/n8n-nodes-langchain.outputParserItemList", 36 | "typeVersion": 1, 37 | "position": [ 38 | 1220, 39 | 400 40 | ] 41 | }, 42 | { 43 | "parameters": { 44 | "modelName": "models/gemini-1.5-flash-001-tuning", 45 | "options": { 46 | "temperature": 0.5 47 | } 48 | }, 49 | "id": "faa0e85d-e35e-4e07-8632-a86fa8ac3a3b", 50 | "name": "Google Gemini Chat Model", 51 | "type": "@n8n/n8n-nodes-langchain.lmChatGoogleGemini", 52 | "typeVersion": 1, 53 | "position": [ 54 | 1060, 55 | 400 56 | ], 57 | "credentials": { 58 | "googlePalmApi": { 59 | "id": "KCzMQsEgLKO6X3Qe", 60 | "name": "Google Gemini(PaLM) Api account" 61 | } 62 | } 63 | }, 64 | { 65 | "parameters": { 66 | "fieldsToAggregate": { 67 | "fieldToAggregate": [ 68 | { 69 | "fieldToAggregate": "response.text", 70 | "renameField": "=text" 71 | } 72 | ] 73 | }, 74 | "options": {} 75 | }, 76 | "id": "b3243c9b-095d-4609-a7de-4a213fde2a81", 77 | "name": "Aggregate1", 78 | "type": "n8n-nodes-base.aggregate", 79 | "typeVersion": 1, 80 | "position": [ 81 | 1440, 82 | 180 83 | ] 84 | }, 85 | { 86 | "parameters": { 87 | "assignments": { 88 | "assignments": [ 89 | { 90 | "id": "6cb779a3-94c0-45c6-b02d-3f8f86a7fbcf", 91 | "name": "translations", 92 | "value": "={{ $json.text.map(text => ({\n \"detected_source_lang\": $('Webhook').item.json.body.source_lang,\n \"text\": text\n })) }}", 93 | "type": "array" 94 | } 95 | ] 96 | }, 97 | "options": {} 98 | }, 99 | "id": "8d0affc9-87dc-4e05-b013-06d7b87fe8b5", 100 | "name": "Edit Fields", 101 | "type": "n8n-nodes-base.set", 102 | "typeVersion": 3.4, 103 | "position": [ 104 | 1640, 105 | 180 106 | ] 107 | }, 108 | { 109 | "parameters": { 110 | "promptType": "define", 111 | "text": "={{ $json.text }}", 112 | "hasOutputParser": true, 113 | "messages": { 114 | "messageValues": [ 115 | { 116 | "message": "只将提供的内容翻译为中文" 117 | } 118 | ] 119 | } 120 | }, 121 | "id": "8e4037d9-4f59-4b80-ae6e-627592aa6058", 122 | "name": "Basic LLM Chain1", 123 | "type": "@n8n/n8n-nodes-langchain.chainLlm", 124 | "typeVersion": 1.4, 125 | "position": [ 126 | 1060, 127 | 180 128 | ] 129 | }, 130 | { 131 | "parameters": { 132 | "httpMethod": "POST", 133 | "path": "fanyiapi", 134 | "responseMode": "lastNode", 135 | "options": {} 136 | }, 137 | "id": "82706a20-8b37-4c44-8a01-bf8b102308c8", 138 | "name": "Webhook", 139 | "type": "n8n-nodes-base.webhook", 140 | "typeVersion": 2, 141 | "position": [ 142 | 580, 143 | 180 144 | ], 145 | "webhookId": "3de4477f-f5cc-4ef6-aa02-7d8a3027dc20" 146 | } 147 | ], 148 | "pinData": {}, 149 | "connections": { 150 | "Edit Fields1": { 151 | "main": [ 152 | [ 153 | { 154 | "node": "Basic LLM Chain1", 155 | "type": "main", 156 | "index": 0 157 | } 158 | ] 159 | ] 160 | }, 161 | "Item List Output Parser": { 162 | "ai_outputParser": [ 163 | [ 164 | { 165 | "node": "Basic LLM Chain1", 166 | "type": "ai_outputParser", 167 | "index": 0 168 | } 169 | ] 170 | ] 171 | }, 172 | "Google Gemini Chat Model": { 173 | "ai_languageModel": [ 174 | [ 175 | { 176 | "node": "Basic LLM Chain1", 177 | "type": "ai_languageModel", 178 | "index": 0 179 | } 180 | ] 181 | ] 182 | }, 183 | "Aggregate1": { 184 | "main": [ 185 | [ 186 | { 187 | "node": "Edit Fields", 188 | "type": "main", 189 | "index": 0 190 | } 191 | ] 192 | ] 193 | }, 194 | "Basic LLM Chain1": { 195 | "main": [ 196 | [ 197 | { 198 | "node": "Aggregate1", 199 | "type": "main", 200 | "index": 0 201 | } 202 | ] 203 | ] 204 | }, 205 | "Webhook": { 206 | "main": [ 207 | [ 208 | { 209 | "node": "Edit Fields1", 210 | "type": "main", 211 | "index": 0 212 | } 213 | ] 214 | ] 215 | } 216 | }, 217 | "active": true, 218 | "settings": { 219 | "executionOrder": "v1" 220 | }, 221 | "versionId": "d911c1dd-70f3-4d82-8ec0-a7292d1d1b5d", 222 | "meta": { 223 | "templateCredsSetupCompleted": true, 224 | "instanceId": "636396f02b6571e40d8fe91cba550515c0cdc0e7d314c210e00b02256375a796" 225 | }, 226 | "id": "eGgX67kijOCxwR8h", 227 | "tags": [] 228 | } --------------------------------------------------------------------------------