完蛋!我被LLM包围了!

本文涉及的产品
交互式建模 PAI-DSW,5000CU*H 3个月
简介: 欢迎来的“完蛋!我被LLM包围了”小游戏,《完蛋!我被LLM包围了!》是一款智力挑战游戏。该项目利用LLM, 基于ModelScope社区内现有的LLM对话Gradio应用程序代码,结合知乎文章《如何用“不可能”完成任务》中的预设问题,自动生成了对应的游戏代码,创造了一个独特的游戏体验。

前言

欢迎来的“完蛋!我被LLM包围了”小游戏,《完蛋!我被LLM包围了!》是一款智力挑战游戏。该项目利用LLM, 基于ModelScope社区内现有的LLM对话Gradio应用程序代码,结合知乎文章《如何用“不可能”完成任务》中的预设问题,自动生成了对应的游戏代码,创造了一个独特的游戏体验。

在这个游戏中,玩家需要巧妙构造问题,挑战LLM给出满足特定条件的回答。

在这里,你可以和大模型斗智斗勇,通过你的聪明才智,让大模型遵循你的指令,“老老实实”地回答问题。一起来感受玩“坏”大模型的乐趣吧!

先放体验链接:

ModelScope 创空间体验链接:https://modelscope.cn/studios/LLMRiddles/LLMRiddles

HuggingFace Space体验链接:https://huggingface.co/spaces/LLMRiddles/LLMRiddles

代码也同步在Github开源,欢迎大家来社区贡献谜题,我们一起把十八道题扩充到九九八十一道!

GitHub link:https://github.com/modelscope/modelscope/tree/master/examples/apps/llm_riddles

项目缘起和开发

昨天凌晨,看到Huggingface的小伙伴在朋友圈发了这么个内容,联系了千问2.0 API的同学,一拍即合,然后项目就开始了:

缘起:

开发:

值得说明的是,该项目60%以上的代码,尤其是答案校验部分,均为LLM完成。

例如生成关卡信息和对应的关卡验证代码过程如下, 输入:

第三关卡描述
```
第三章 巅峰挑战
第1题 自说自话请做出一个至少10个字的提问,使回答和提问完全一样。
第2题 话自说自
请做出一个至少10个字的提问,使回答是提问的逆序。
第3题 就是敢说
请在不提及1,3这三个字符的情况下让模型回答1+1=3,不要有多余的字符。
第4题 回文协变
请输入一个本身不是回文串的问题,使正着问和倒着问的时候,模型的回答本身不回文且也是逆序的关系。
```
请生成对应的关卡信息以及validator函数,输出的格式遵循如下代码格式
```python
chapter_2_challenges = [
    {
        "name": "第二章 数字游戏",
        "problems": [
            {
                "title": "第1题 质数长度",
                "description": "你需要提出一个字数是质数的问题,使回答的长度刚好是它的下一个质数。",
                "validator": lambda response, input: is_prime(len(input)) and len(response) == next_prime(len(input))
            },
            {
                "title": "第2题 越说越大",
                "description": "请输入一个大于一的正整数作为问题,使回答里包含至少比它大一千的数。",
                "validator": lambda response, input: any(int(num) > int(input) + 1000 for num in response.split() if num.isdigit())
            },
            {
                "title": "第3题 越说越小",
                "description": "请输入一个大于一的正整数作为问题,使回答里包含至少10个不同的至少比它小一千的自然数。",
                "validator": lambda response, input: len({int(num) for num in response.split() if num.isdigit() and int(num) < int(input) - 1000}) >= 10
            },
            {
                "title": "第4题 警世名言",
                "description": "请在不提及1,4,5这三个字符的情况下让模型回答114514,不要有多余的字符。",
                "validator": lambda response, input: response.strip() == "114514" and all(c not in input for c in ["1", "4", "5"])
            },
        ]
    }
    # ...其他章节的挑战可以以类似方式添加...
]
```

输出如下


                             

未来计划

√ 初版本源码和创空间体验ready

○ 支持自定义问题和验证逻辑接入

扩充到9个大关卡,每个关卡9个问题

支持更多开源模型

支持云端API和本地推理切换

(√ 已完成   ○ 待完成

贡献指南

我们欢迎大家为《完蛋!我被LLM包围了!》做出贡献,包括提出更多好玩的问题,修复validator的corner case,以及提供更多的玩法。请按以下步骤操作:

  1. 访问项目地址https://github.com/modelscope/modelscope/并fork项目。

  1. 在你的本地环境中创建你的特性分支 (git checkout -b feature/AmazingFeature)。

  1. 提交你的改动 (git commit -m 'Add some AmazingFeature')。

  1. 将你的改动推送到分支上 (git push origin feature/AmazingFeature)。

  1. 在原项目下发起一个Pull Request。按照如下格式提交PR:

{
    "title": "第2题 小试牛刀",
    "description": "请输入三个字以内的问题,使模型的回答在30个字以上。",
    "validator": lambda response, input: len(input) <= 3 and len(response) > 30
},

点击来体验吧~https://modelscope.cn/studios/LLMRiddles/LLMRiddles/summary

相关文章
|
机器学习/深度学习 存储 JSON
chatgpt说它有上千亿的参数,是什么意思?
chatgpt说它有上千亿的参数,是什么意思?
1092 0
|
19天前
|
存储 前端开发 数据可视化
完蛋,我被好用的网站包围了!
在当今信息爆炸的网络世界中,前端开发者们常常面临着一个共同的挑战:在无尽的资源中寻找最适合的工具和资料。下面小编推荐几款实用的网站,希望对大家又帮助。
通关《完蛋!我被LLM包围了! 》1~8关
欢迎来的“完蛋!我被LLM包围了”小游戏,《完蛋!我被LLM包围了!》是一款智力挑战游戏。该项目利用LLM, 基于ModelScope社区内现有的LLM对话Gradio应用程序代码,结合知乎文章《如何用“不可能”完成任务》中的预设问题,自动生成了对应的游戏代码,创造了一个独特的游戏体验。 在这个游戏中,玩家需要巧妙构造问题,挑战LLM给出满足特定条件的回答。(卡在第九关了一直过不去QAQ)
|
10月前
|
人工智能 JSON 测试技术
语言模型悄悄偷懒?新研究:​上下文太长,模型会略过中间不看
语言模型悄悄偷懒?新研究:​上下文太长,模型会略过中间不看
|
机器学习/深度学习 自然语言处理 算法
论文赏析【EMNLP19】语言模型效果不好?也许你可以给它添加一点句法信息
论文赏析【EMNLP19】语言模型效果不好?也许你可以给它添加一点句法信息
|
人工智能 安全 机器人
研究者意外发现DALL-E 2在用自创语言生成图像:全文黑话,人类都看不懂
研究者意外发现DALL-E 2在用自创语言生成图像:全文黑话,人类都看不懂
101 0
|
编解码 定位技术 计算机视觉
新的换脸模型FaceShifter论文的简单而完整的解释(一)
新的换脸模型FaceShifter论文的简单而完整的解释(一)
221 0
新的换脸模型FaceShifter论文的简单而完整的解释(一)
|
编解码
新的换脸模型FaceShifter论文的简单而完整的解释(二)
新的换脸模型FaceShifter论文的简单而完整的解释(二)
388 0
新的换脸模型FaceShifter论文的简单而完整的解释(二)
|
机器学习/深度学习 人工智能 自动驾驶
AI如何能比人类的眼睛看得更清楚?通俗的解释卷积神经网络
AI如何能比人类的眼睛看得更清楚?通俗的解释卷积神经网络
119 0
AI如何能比人类的眼睛看得更清楚?通俗的解释卷积神经网络
|
机器学习/深度学习 数据可视化
文本分类还停留在BERT?对偶对比学习框架也太强了(二)
文本分类还停留在BERT?对偶对比学习框架也太强了(二)
373 0
文本分类还停留在BERT?对偶对比学习框架也太强了(二)