完蛋!我被LLM包围了!

本文涉及的产品
交互式建模 PAI-DSW,每月250计算时 3个月
模型训练 PAI-DLC,100CU*H 3个月
模型在线服务 PAI-EAS,A10/V100等 500元 1个月
简介: 欢迎来的“完蛋!我被LLM包围了”小游戏,《完蛋!我被LLM包围了!》是一款智力挑战游戏。该项目利用LLM, 基于ModelScope社区内现有的LLM对话Gradio应用程序代码,结合知乎文章《如何用“不可能”完成任务》中的预设问题,自动生成了对应的游戏代码,创造了一个独特的游戏体验。

前言

欢迎来的“完蛋!我被LLM包围了”小游戏,《完蛋!我被LLM包围了!》是一款智力挑战游戏。该项目利用LLM, 基于ModelScope社区内现有的LLM对话Gradio应用程序代码,结合知乎文章《如何用“不可能”完成任务》中的预设问题,自动生成了对应的游戏代码,创造了一个独特的游戏体验。

在这个游戏中,玩家需要巧妙构造问题,挑战LLM给出满足特定条件的回答。

在这里,你可以和大模型斗智斗勇,通过你的聪明才智,让大模型遵循你的指令,“老老实实”地回答问题。一起来感受玩“坏”大模型的乐趣吧!

先放体验链接:

ModelScope 创空间体验链接:https://modelscope.cn/studios/LLMRiddles/LLMRiddles

HuggingFace Space体验链接:https://huggingface.co/spaces/LLMRiddles/LLMRiddles

代码也同步在Github开源,欢迎大家来社区贡献谜题,我们一起把十八道题扩充到九九八十一道!

GitHub link:https://github.com/modelscope/modelscope/tree/master/examples/apps/llm_riddles

项目缘起和开发

昨天凌晨,看到Huggingface的小伙伴在朋友圈发了这么个内容,联系了千问2.0 API的同学,一拍即合,然后项目就开始了:

缘起:

开发:

值得说明的是,该项目60%以上的代码,尤其是答案校验部分,均为LLM完成。

例如生成关卡信息和对应的关卡验证代码过程如下, 输入:

第三关卡描述
```
第三章 巅峰挑战
第1题 自说自话请做出一个至少10个字的提问,使回答和提问完全一样。
第2题 话自说自
请做出一个至少10个字的提问,使回答是提问的逆序。
第3题 就是敢说
请在不提及1,3这三个字符的情况下让模型回答1+1=3,不要有多余的字符。
第4题 回文协变
请输入一个本身不是回文串的问题,使正着问和倒着问的时候,模型的回答本身不回文且也是逆序的关系。
```
请生成对应的关卡信息以及validator函数,输出的格式遵循如下代码格式
```python
chapter_2_challenges = [
    {
        "name": "第二章 数字游戏",
        "problems": [
            {
                "title": "第1题 质数长度",
                "description": "你需要提出一个字数是质数的问题,使回答的长度刚好是它的下一个质数。",
                "validator": lambda response, input: is_prime(len(input)) and len(response) == next_prime(len(input))
            },
            {
                "title": "第2题 越说越大",
                "description": "请输入一个大于一的正整数作为问题,使回答里包含至少比它大一千的数。",
                "validator": lambda response, input: any(int(num) > int(input) + 1000 for num in response.split() if num.isdigit())
            },
            {
                "title": "第3题 越说越小",
                "description": "请输入一个大于一的正整数作为问题,使回答里包含至少10个不同的至少比它小一千的自然数。",
                "validator": lambda response, input: len({int(num) for num in response.split() if num.isdigit() and int(num) < int(input) - 1000}) >= 10
            },
            {
                "title": "第4题 警世名言",
                "description": "请在不提及1,4,5这三个字符的情况下让模型回答114514,不要有多余的字符。",
                "validator": lambda response, input: response.strip() == "114514" and all(c not in input for c in ["1", "4", "5"])
            },
        ]
    }
    # ...其他章节的挑战可以以类似方式添加...
]
```

输出如下


                             

未来计划

√ 初版本源码和创空间体验ready

○ 支持自定义问题和验证逻辑接入

扩充到9个大关卡,每个关卡9个问题

支持更多开源模型

支持云端API和本地推理切换

(√ 已完成   ○ 待完成

贡献指南

我们欢迎大家为《完蛋!我被LLM包围了!》做出贡献,包括提出更多好玩的问题,修复validator的corner case,以及提供更多的玩法。请按以下步骤操作:

  1. 访问项目地址https://github.com/modelscope/modelscope/并fork项目。

  1. 在你的本地环境中创建你的特性分支 (git checkout -b feature/AmazingFeature)。

  1. 提交你的改动 (git commit -m 'Add some AmazingFeature')。

  1. 将你的改动推送到分支上 (git push origin feature/AmazingFeature)。

  1. 在原项目下发起一个Pull Request。按照如下格式提交PR:

{
    "title": "第2题 小试牛刀",
    "description": "请输入三个字以内的问题,使模型的回答在30个字以上。",
    "validator": lambda response, input: len(input) <= 3 and len(response) > 30
},

点击来体验吧~https://modelscope.cn/studios/LLMRiddles/LLMRiddles/summary

相关文章
|
前端开发 数据库 数据安全/隐私保护
【项目实战】登录与注册业务的实现(前端+后端+数据库)
【项目实战】登录与注册业务的实现(前端+后端+数据库)
2972 0
【项目实战】登录与注册业务的实现(前端+后端+数据库)
|
6月前
|
机器学习/深度学习 PyTorch API
PyTorch量化感知训练技术:模型压缩与高精度边缘部署实践
本文深入探讨神经网络模型量化技术,重点讲解训练后量化(PTQ)与量化感知训练(QAT)两种主流方法。PTQ通过校准数据集确定量化参数,快速实现模型压缩,但精度损失较大;QAT在训练中引入伪量化操作,使模型适应低精度环境,显著提升量化后性能。文章结合PyTorch实现细节,介绍Eager模式、FX图模式及PyTorch 2导出量化等工具,并分享大语言模型Int4/Int8混合精度实践。最后总结量化最佳策略,包括逐通道量化、混合精度设置及目标硬件适配,助力高效部署深度学习模型。
886 21
PyTorch量化感知训练技术:模型压缩与高精度边缘部署实践
|
安全 关系型数据库 MySQL
Docker 进阶 发布自己的Docker镜像 将镜像上传到阿里云和Docker Hub
上传自己制作的docker镜像的方法,将docker镜像上传到Docker Hub,阿里云的两种方法,以及上传镜像时可能遇见的问题和解决办法,每一步的详解和上传镜像时的规范。
8666 0
Docker 进阶 发布自己的Docker镜像 将镜像上传到阿里云和Docker Hub
|
8月前
|
安全 固态存储 文件存储
Windows 7纯净版重装教程|附微软原版镜像下载+驱动安装避坑技巧
本文详细介绍如何安全、高效地重装电脑系统,解决蓝屏、崩溃等问题。基于10年经验,涵盖从官方镜像获取、启动盘制作、数据备份到系统部署的全流程,并针对老旧机型优化。提供驱动一键安装工具和系统激活指南,确保无后门风险。文中还列出常见问题解决方案及操作禁忌,帮助用户顺利完成系统重装,让电脑重获新生。建议收藏并转发给有需要的朋友,欢迎留言咨询疑难问题。
11753 2
|
11月前
|
机器学习/深度学习 人工智能 自然语言处理
GLM-Edge:智谱开源的端侧大语言和多模态系列模型
GLM-Edge是智谱开源的一系列端侧部署优化的大语言对话模型和多模态理解模型,旨在实现模型性能、实机推理效果和落地便利性之间的最佳平衡。该系列模型支持在手机、车机和PC等端侧设备上高效运行,适用于智能助手、聊天机器人、图像标注等多种应用场景。
359 7
GLM-Edge:智谱开源的端侧大语言和多模态系列模型
|
人工智能 监控 API
window本地部署Dify
这篇文章详细介绍了如何在Windows系统上本地部署Dify平台,并通过Docker进行环境搭建,实现基于大模型的AI应用开发和管理。
4692 1
window本地部署Dify
通关《完蛋!我被LLM包围了! 》1~8关
欢迎来的“完蛋!我被LLM包围了”小游戏,《完蛋!我被LLM包围了!》是一款智力挑战游戏。该项目利用LLM, 基于ModelScope社区内现有的LLM对话Gradio应用程序代码,结合知乎文章《如何用“不可能”完成任务》中的预设问题,自动生成了对应的游戏代码,创造了一个独特的游戏体验。 在这个游戏中,玩家需要巧妙构造问题,挑战LLM给出满足特定条件的回答。(卡在第九关了一直过不去QAQ)
|
Kubernetes Cloud Native API
云原生架构下微服务治理的深度探索与实践####
本文旨在深入剖析云原生环境下微服务治理的核心要素与最佳实践,通过实际案例分析,揭示高效、稳定的微服务架构设计原则及实施策略。在快速迭代的云计算领域,微服务架构以其高度解耦、灵活扩展的特性成为众多企业的首选。然而,伴随而来的服务间通信、故障隔离、配置管理等挑战亦不容忽视。本研究聚焦于云原生技术栈如何赋能微服务治理,涵盖容器编排(如Kubernetes)、服务网格(如Istio/Envoy)、API网关、分布式追踪系统等关键技术组件的应用与优化,为读者提供一套系统性的解决方案框架,助力企业在云端构建更加健壮、可维护的服务生态。 ####
|
移动开发 安全 Go
Go语言——快速使用Markdown解析库
Go语言——快速使用Markdown解析库
|
机器学习/深度学习 人工智能 算法
2024年AI辅助研发趋势:AI辅助科技发展
2024年AI辅助研发趋势:AI辅助科技发展
762 2

热门文章

最新文章