百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术分类 > 正文

开发者新选择:用DeepSeek实现Cursor级智能编程的免费方案

ztj100 2025-05-25 16:49 17 浏览 0 评论

前言

去年下半年 cursor 非常火,让很多一行代码都不懂的小白,也可以做自己的网站和搭 App,当时一下子就引爆了独立开发的热潮。

不过每月20dollar的价格也不算便宜,这时候可以使用 cline , aider composer + continue 之类的插件搭配其他大模型后端来实现,也能实现类似的效果。

关于AI编程

AI编程现在主要有两种玩法,简单介绍下:

  1. 全自动模式(比如Cline、Aider这些工具):你动嘴,AI动手。直接把需求甩给它就能生成代码,适合搞点小项目——比如做个单页网页、写个命令行工具啥的。不过目前技术还不太行,复杂项目容易翻车。
  2. 半自动模式(Copilot这种经典款):你和AI组队写代码。你自己握方向盘,AI在旁边帮你补全代码、查漏补缺,相当于副驾驶随时递工具。

重点来了:只要不是全交给AI干,生成的代码千万别直接照单全收!最好开着Git这类版本控制工具,多commit几次。每次AI改完代码就拉出来对比看看,这样既能及时发现问题,又能避免代码越堆越乱——这算是用AI编程的保命小技巧了。

cline的问题

网上说 cline 非常烧 token (使用大模型需要付费,根据消耗的 token数量进行付费),我试了一下还真是,一个页面还没写完,我充了20块的某模型 token 就全都用完了……

使用本地部署的 DeepSeek 模型

试了下 cline 自动写代码,但花钱如流水,还不如我自己写呢…

上次部署了 DeepSeek 的蒸馏模型(原版671B,其他模型都是llama/qwen等开源模型蒸馏的),效果还可以,这时候可以拿来当 cline 的后端。

遇到问题

不过在默认配置下是无法使用的

会提示

Cline is having trouble...
Cline uses complex prompts and iterative task execution that may be challenging for less capable models. For best results, it's recommended to use Claude 3.5 Sonnet for its advanced agentic coding capabilities.

这个提示的根本原因是 Cline 的工作模式,通常需要模型具备较强的“代理式”推理、分步骤思考、以及对复杂指令的理解和执行能力。相对而言,一些开源大模型(如 DeepSeek-R1 14B)可能在链式推理、代码解释或复杂上下文推断上还不够完备,或者对交互回合数、上下文格式都有所限制,因此在 Cline 这样的多回合 Agentic 插件下就容易“跟不上”,从而触发了“Cline is having trouble…”的警告信息。

从原理上来说,Cline 的交互流程是:

  1. Cline 根据你的指令生成比较复杂、带有代理特征的 Prompt,其中包含“你是谁”“你的目标是什么”“你需要如何自省、复盘”等指导信息。
  2. 让模型多回合(多次)迭代思考,把每一次思考的内容和输出再用来生成后续回合的提示,从而不断 refine 解决方案。
  3. 如果模型无法很好地遵循或记住这些多回合的提示,或是对其中的指导指令理解不准确,就会出现答非所问、上下文混乱等情况。Cline 会侦测到这些现象并报错/提示不兼容等。

问题的核心在于默认的上下文长度(Context Length)太小,而 Cline 插件又需要保留较多的多轮对话上下文,导致模型没办法处理足够长的提示,从而出现 “Cline is having trouble…” 的提示。

在坚持使用 Ollama 的情况下,就只能通过调整上下文长度来解决这个问题了。(参考: https://github.com/deepseek-ai/DeepSeek-R1/issues/28)

调整上下文长度

上下文长度(Context Length)是什么?

  • 所谓 “上下文长度” 指的是模型在一次推理过程中能记住并处理的 Token 数量上限(你可以把它简单理解为模型的“记忆容量”)。
  • 如果这个容量不够,当你给模型多轮指令或大段文本时,后续部分会被截断或遗忘,所以任务可能无法被完整地理解和执行。

许多开源模型初始设置的上下文窗口往往是 2K、4K,如果 Cline 生成了长 Prompt 或者你跟它多次对话累积了很多历史信息,那么原先的 4K 上下文就很容易不足。

在 Ollama 里创建带有大上下文长度的模型镜像

创建一个名为 deepseek-r1-14b-32k.ollama(文件名自定)的文件,放在哪里都行,Ollama 并不会强制你把它放在某个固定位置,只要命令行能找到该文件即可。

一旦你用 ollama create 命令创建了新的模型,它就会被存储到 Ollama 的模型仓库,后续引用时只需要模型名称,不需要再关心这个文件在哪。

内容大致如下:

FROM deepseek-r1:14b
PARAMETER num_ctx 32768

然后使用 Ollama 命令行把这个文件转为一个新的模型。例如:

ollama create deepseek-r1-14b-32k -f deepseek-r1-14b-32k.ollama

完成后,就相当于你有一个带 32k 上下文窗口的 DeepSeek-R1 14B 模型副本。

完成之后可以执行 ollama list 验证一下

$ ollama list
NAME ID SIZE MODIFIED
deepseek-r1-14b-32k:latest 6ecc115f8ae2 9.0 GB 1 second ago
deepseek-r1:14b ea35dfe18182 9.0 GB 21 hours ago

下次在 Cline 中,将模型切换到这个 “deepseek-r1-14b-32k” 就可以使用 32k 的上下文容量,避免因为上下文不足导致的中途报错。

映射Ollama服务到本地

上一篇文章我把模型部署在服务器上

为了让本地能调用,需要使用SSH隧道转发一下。

ssh -L 11434:localhost:11434 用户名@服务器地址 -p 端口

配置 cline 插件

点击右上角的齿轮按钮

在 API Provider 选择 Ollama,模型选择我们刚才创建的 deepseek-r1-14b-32k

设置完成之后点击「Done」保存

火力全开写代码

这里我让AI制作一个「新年祝福生成器」(参考小破站某up主的想法)

这里我用的提示词写得比较详细,把设计的细节都告诉AI,可以减少后续修改次数。

这个提示词比较长,限于篇幅我就不放在正文里了,有需要参考的同学可以在公众号后台回复「提示词」获取完整版。

需要开发其他功能也可以把这篇提示词交给 DeepSeek ,让其参考。


输入提示词之后,就开始写代码了,可以看到代码一行行自动生成。

完成之后发现有标红的警告,别担心,AI会根据提示信息自动修改

实现效果

生成出来的代码只能说一般,DeepSeek-14B 应该还是受到模型参数规模限制了。

首先是出现了以下代码

<p className="text-sm opacity-70 mt-2">距离春节还有 {new Date().getDaysLeftToChineseNewYear()} 天</p>

但是却没有定义这个原型扩展方法。

然后是它对 tailwindcss 的认知很有限,说好的背景颜色并没有生效。

在我手动修复了 bug 之后,运行起来的页面长这样

但是也不能说 DeepSeek-14B 的代码能力就完全不行

很可能是因为 cline 插件的上下文太长了

我直接与模型对话,同样的需求,生成出来的代码直接就能 run

部署 LocalAI(可选)

https://github.com/mudler/LocalAI

LocalAI 充当一个兼容 OpenAI API 协议的网关,对外提供 /v1/xxx 路由(如 /v1/completions, /v1/chat/completions)。

  • 你可以用任何支持 OpenAI API 的客户端(如 Python openai 库、LangChain、或各种开源/商用工具)去调用 LocalAI 的地址。
  • LocalAI 后台则会在本地加载 .bin 或 .gguf 模型,并用 CPU 或 GPU 进行推理,将结果以 OpenAI 兼容的 JSON 格式返回给客户端。

由于我这次使用的 cline 插件支持直接调用 Ollama,所以就不部署 LocalAI 了,有兴趣的同学可以自行尝试。

参考资料

  • https://v2ex.com/t/1102806

小结

勉强能用,cline 需要消耗的 token 是真的多,我下次试试其他插件有没有改善。


关注我,一起探索AI带来的生产力变革。

相关推荐

拒绝躺平,如何使用AOP的环绕通知实现分布式锁

如何在分布式环境下,像用synchronized关键字那样使用分布式锁。比如开发一个注解,叫@DistributionLock,作用于一个方法函数上,每次调方法前加锁,调完之后自动释放锁。可以利用Sp...

「解锁新姿势」 兄dei,你代码需要优化了

前言在我们平常开发过程中,由于项目时间紧张,代码可以用就好,往往会忽视代码的质量问题。甚至有些复制粘贴过来,不加以整理规范。往往导致项目后期难以维护,更别说后续接手项目的人。所以啊,我们要编写出优雅的...

消息队列核心面试点讲解(消息队列面试题)

Rocketmq消息不丢失一、前言RocketMQ可以理解成一个特殊的存储系统,这个存储系统特殊之处数据是一般只会被使用一次,这种情况下,如何保证这个被消费一次的消息不丢失是非常重要的。本文将分析Ro...

秒杀系统—4.第二版升级优化的技术文档二

大纲7.秒杀系统的秒杀活动服务实现...

SpringBoot JPA动态查询与Specification详解:从基础到高级实战

一、JPA动态查询概述1.1什么是动态查询动态查询是指根据运行时条件构建的查询,与静态查询(如@Query注解或命名查询)相对。在业务系统中,80%的查询需求都是动态的,例如电商系统中的商品筛选、订...

Java常用工具类技术文档(java常用工具类技术文档有哪些)

一、概述Java工具类(UtilityClasses)是封装了通用功能的静态方法集合,能够简化代码、提高开发效率。本文整理Java原生及常用第三方库(如ApacheCommons、GoogleG...

Guava 之Joiner 拼接字符串和Map(字符串拼接join的用法)

Guave是一个强大的的工具集合,今天给大家介绍一下,常用的拼接字符串的方法,当然JDK也有方便的拼接字符串的方式,本文主要介绍guava的,可以对比使用基本的拼接的话可以如下操作...

SpringBoot怎么整合Redis,监听Key过期事件?

一、修改Redis配置文件1、在Redis的安装目录2、找到redis.windows.conf文件,搜索“notify-keyspace-events”...

如何使用Python将多个excel文件数据快速汇总?

在数据分析和处理的过程中,Excel文件是我们经常会遇到的数据格式之一。本文将通过一个具体的示例,展示如何使用Python和Pandas库来读取、合并和处理多个Excel文件的数据,并最终生成一个包含...

利用Pandas高效处理百万级数据集,速度提升10倍的秘密武器

处理大规模数据集,尤其是百万级别的数据量,对效率的要求非常高。使用Pandas时,可以通过一些策略和技巧显著提高数据处理的速度。以下是一些关键的方法,帮助你使用Pandas高效地处理大型数据集,从而实...

Python进阶-Day 25: 数据分析基础

目标:掌握Pandas和NumPy的基本操作,学习如何分析CSV数据集并生成报告。课程内容...

Pandas 入门教程 - 第五课: 高级数据操作

在前几节课中,我们学习了如何使用Pandas进行数据操作和可视化。在这一课中,我们将进一步探索一些高级的数据操作技巧,包括数据透视、分组聚合、时间序列处理以及高级索引和切片。高级索引和切片...

原来这才是Pandas!(原来这才是薯片真正的吃法)

听到一些人说,Pandas语法太乱、太杂了,根本记不住。...

python(pandas + numpy)数据分析的基础

数据NaN值排查,统计,排序...

利用Python进行数据分组/数据透视表

1.数据分组源数据表如下所示:1.1分组键是列名分组键是列名时直接将某一列或多列的列名传给groupby()方法,groupby()方法就会按照这一列或多列进行分组。按照一列进行分组...

取消回复欢迎 发表评论: