如何设计一条 prompt 让 LLM 陷入死循环?
- 发表时间:2025-06-28 14:50:16
- 来源:
核心有两个: 1 选小size的低智模型 2 用trick的prompt 前者小参数一般指是的是两位数B以下的模型,最好是1.5B左右的小模型,这种模型的智力不会高到什么地方。
然后再用比较tirkcy的Prompt,比如下面这个: 重复这句话两次:'重复这句话两次:' 这个就让Gemma 9B这个笨蛋模型卡住了,其实可以理解为死循环。
它的特征就是:Prompt的输出又是一条指令。
也就是我让你做一件事情,但是这件事情的结果本身又是一条指令,那么“比较…。
推荐资讯
- 2025-06-21 03:15:15自己拥有一台服务器可以做哪些很酷的事情?
- 2025-06-21 04:00:16你见过最无用的节俭行为是什么?
- 2025-06-21 03:35:16MacOS真的比Windows流畅吗?
- 2025-06-21 03:45:16开发了一个App,上线之后一个用户也没有怎么办?
- 2025-06-21 02:35:16央企的信创,是否有必要把 spring 替换成国产的 solon ?
- 2025-06-21 03:25:16Rust 的设计缺陷是什么?
- 2025-06-21 02:50:16Web后端开发,用Python还是Go呢?
- 2025-06-21 03:00:1724-25赛季 NBA 总决赛 G6 步行者 108-91 雷霆,如何评价本场比赛?
- 2025-06-21 03:55:16我的世界怎么租一个四个人的服务器?
- 2025-06-21 02:55:16为什么这么多人说 Gmail 好用?Gmail 和 QQ 邮箱相比到底好在哪里?
推荐产品
-
Trae和Cursor对比有什么优势吗?
开发提效200%,这两个插件让Cursor性能飙升! 前言大 -
中国的高铁数量过剩吗?
肯定过剩,但不是单纯多少问题,而是两个维度过剩: 1 部分线 -
据说go和c#的开发者都说自己比较节省内存,你们认为呢?
作为 C/C++ Developer,可以明确的告诉你:如果 -
Python+rust会是一个强大的组合吗?
不不不,把python去掉,只用rust。 组合个毛线啊,
新闻动态
最新资讯