gpt-3.5-turbo与星火认知大模型v3.5回答对比

简介: gpt-3.5-turbo与星火认知大模型v3.5回答对比

创建kernel

// Create a kernel with OpenAI chat completion
  Kernel kernel = Kernel.CreateBuilder()
            .AddOpenAIChatCompletion(
                modelId:"使用的模型id" ,
                apiKey: "APIKey")
            .Build();

使用讯飞星火认知大模型的话,可以参考我这一篇文章:

记一次WPF集成SemanticKernel+OneAPI+讯飞星火认知大模型实践 (qq.com)

使用gpt-3.5-turbo的效果

代码:

// Example 1. Invoke the kernel with a prompt and display the result
            Debug.WriteLine(await kernel.InvokePromptAsync("天空是什么颜色?"));
            Debug.WriteLine("-------------------------------------------------------");
            // Example 2. Invoke the kernel with a templated prompt and display the result
            KernelArguments arguments = new() { { "topic", "sea" } };
            Debug.WriteLine(await kernel.InvokePromptAsync("这是什么颜色{{$topic}}?", arguments));
            Debug.WriteLine("-------------------------------------------------------");
            // Example 3. Invoke the kernel with a templated prompt and stream the results to the display
            await foreach (var update in kernel.InvokePromptStreamingAsync("这是什么颜色 {{$topic}}? 请提供一个详细的解释", arguments))
            {
                Debug.Write(update);
            }
            Debug.WriteLine("-------------------------------------------------------");
            // Example 4. Invoke the kernel with a templated prompt and execution settings
            arguments = new(new OpenAIPromptExecutionSettings { MaxTokens = 500, Temperature = 0.5 }) { { "topic", "dogs" } };
            Debug.WriteLine(await kernel.InvokePromptAsync("告诉我关于这个主题的故事 {{$topic}}", arguments));
            // Example 5. Invoke the kernel with a templated prompt and execution settings configured to return JSON
#pragma warning disable SKEXP0013
            arguments = new(new OpenAIPromptExecutionSettings { ResponseFormat = "json_object" }) { { "topic", "chocolate" } };
            Debug.WriteLine(await kernel.InvokePromptAsync("给这种 {{$topic}} 的蛋糕用json格式制作一个食谱 ", arguments));

效果:

一个一个看:

// Example 1. Invoke the kernel with a prompt and display the result
  Debug.WriteLine(await kernel.InvokePromptAsync("天空是什么颜色?"));
  Debug.WriteLine("-------------------------------------------------------");

回答:

天空的颜色通常是蓝色的。这是因为大气对太阳光的散射作用。在白天,空气中的气体和微粒会散射太阳光中的短波蓝光,使我们看到天空是蓝色的。在日落和日出时,由于光线穿过更多的大气层,散射更多的波长,使得天空呈现出橙红色。
// Example 2. Invoke the kernel with a templated prompt and display the result
  KernelArguments arguments = new() { { "topic", "sea" } };
  Debug.WriteLine(await kernel.InvokePromptAsync("这是什么颜色{{$topic}}?", arguments));
  Debug.WriteLine("-------------------------------------------------------");

回答:

"Sea" 不是一种具体的颜色,而是指海洋。海洋的颜色通常取决于许多因素,例如水深、海底的颜色、水质等等,因此海洋的颜色可能是蓝色、绿色、灰色等等不同的色调。如果你需要描述海洋的颜色,你可以根据具体情况选择最贴切的颜色描述。
// Example 3. Invoke the kernel with a templated prompt and stream the results to the display
            await foreach (var update in kernel.InvokePromptStreamingAsync("这是什么颜色 {{$topic}}? 请提供一个详细的解释", arguments))
            {
                Debug.Write(update);
            }
            Debug.WriteLine("-------------------------------------------------------");

回答:

"Sea" 不是一种具体的颜色,因为海洋的颜色会随着不同的地点和时间而变化。一般来说,海水的颜色可以是深蓝色、浅蓝色、绿色或者灰色等。这些颜色是由海水中的水质、深度、天空的颜色、阳光的角度等因素影响而形成的。
深蓝色的海水通常表示着水深和透明度很高,这种颜色在深海处很普遍。浅蓝色的海水通常会出现在沿海地区,这可能是由于波浪的搅动导致的。而绿色的海水可能是由于海洋中浮游植物的存在所导致的。另外,灰色的海水可能是由于天气阴沉或者海水中的悬浮物质造成的。
综上所述,海洋的颜色是多种因素综合作用的结果,具有多样性和变化性。
// Example 4. Invoke the kernel with a templated prompt and execution settings
   arguments = new(new OpenAIPromptExecutionSettings { MaxTokens = 500, Temperature = 0.5 }) { { "topic", "dogs" } };
   Debug.WriteLine(await kernel.InvokePromptAsync("告诉我关于这个主题的故事 {{$topic}}", arguments));

回答:

《忠诚的狗》
从前,有一个农夫,他有一只忠诚的狗,名叫小白。小白是农夫的得力助手,他每天都跟着农夫一起工作,保护庄稼,驱赶野兽。
有一天,农夫生病了,病得很重,不能下地工作了。家里的存粮也所剩无几。小白看着主人的病情一天比一天严重,他心里很着急,却无计可施。
一天,小白突然想到了一个主意。他决定去附近的城镇寻找帮助。于是,小白离开了农场,开始了他的旅程。
在城镇上,小白遇到了一个慈祥的老人,老人看到小白的眼神中充满了忠诚和坚定,便决定跟着小白回到了农场。
小白回到农场后,老人开始帮助农夫种地、照顾庄稼,而小白则继续保护庄稼,驱赶野兽。
经过一段时间的努力,农夫的病情逐渐好转,庄稼也长得茁壮。农夫感激不尽,他对小白和老人说:“你们是我最忠诚的朋友,我永远不会忘记你们的帮助。”
从此以后,小白、老人和

由于我们设置了MaxTokens = 500,所以这个故事由于太长了而无法完整呈现。

// Example 5. Invoke the kernel with a templated prompt and execution settings configured to return JSON
#pragma warning disable SKEXP0013
            arguments = new(new OpenAIPromptExecutionSettings { ResponseFormat = "json_object" }) { { "topic", "chocolate" } };
            Debug.WriteLine(await kernel.InvokePromptAsync("给这种 {{$topic}} 的蛋糕用json格式制作一个食谱 ", arguments));

回答:

{
  "食谱名称": "巧克力蛋糕",
  "食材": {
    "巧克力": "200克",
    "黄油": "150克",
    "糖": "150克",
    "鸡蛋": "4个",
    "面粉": "150克",
    "泡打粉": "1茶匙",
    "可可粉": "30克",
    "牛奶": "100毫升"
  },
  "步骤": [
    "1. 将巧克力和黄油融化在锅中,待凉。",
    "2. 打蛋和糖,直到颜色变浅。",
    "3. 加入巧克力混合物,搅拌均匀。",
    "4. 筛入面粉、泡打粉和可可粉,搅拌均匀。",
    "5. 慢慢倒入牛奶,搅拌成浓稠的面糊。",
    "6. 将面糊倒入预热至180°C的烤箱中,烤约30-35分钟至熟。",
    "7. 取出蛋糕,待凉后即可享用。"
  ]
}

返回的是json格式。

使用讯飞星火认知大模型的效果

代码与上面那个一样。

效果:

一个一个看:

// Example 1. Invoke the kernel with a prompt and display the result
  Debug.WriteLine(await kernel.InvokePromptAsync("天空是什么颜色?"));
  Debug.WriteLine("-------------------------------------------------------");

回答:

天空的颜色通常是蓝色或灰色,但在日出和日落时会呈现出橙色、红色或紫色等不同的颜色。这是因为太阳的光线在穿过大气层时被散射,使得天空呈现出不同的色彩。
// Example 2. Invoke the kernel with a templated prompt and display the result
  KernelArguments arguments = new() { { "topic", "sea" } };
  Debug.WriteLine(await kernel.InvokePromptAsync("这是什么颜色{{$topic}}?", arguments));
  Debug.WriteLine("-------------------------------------------------------");

回答:

由于您没有提供足够的信息,我无法确定您所提到的颜色。
// Example 3. Invoke the kernel with a templated prompt and stream the results to the display
            await foreach (var update in kernel.InvokePromptStreamingAsync("这是什么颜色 {{$topic}}? 请提供一个详细的解释", arguments))
            {
                Debug.Write(update);
            }
            Debug.WriteLine("-------------------------------------------------------");

回答:

海的颜色通常是蓝色或绿色。这是因为海水吸收了太阳光中的红色、黄色和橙色波长,而反射出蓝色和绿色的波长。当太阳在天空中较低时,海水会呈现出更深的蓝色,因为更多的红色和黄色波长被散射掉了。此外,海洋的颜色还受到天气、水质和深度等因素的影响。例如,当海水中含有大量的浮游生物或污染物时,它可能会呈现出混浊的绿色或棕色。
// Example 4. Invoke the kernel with a templated prompt and execution settings
   arguments = new(new OpenAIPromptExecutionSettings { MaxTokens = 500, Temperature = 0.5 }) { { "topic", "dogs" } };
   Debug.WriteLine(await kernel.InvokePromptAsync("告诉我关于这个主题的故事 {{$topic}}", arguments));

回答:

从前,有一个小镇,这个小镇里住着许多善良的人们。他们非常热爱动物,尤其是狗。在这个小镇上,有一个特殊的节日,叫做“狗狗节”。每年的这个时候,小镇的居民们都会为他们心爱的狗狗举办一场盛大的庆祝活动。
在小镇的东边,有一户人家,他们养了一只名叫旺财的金毛犬。旺财非常聪明,而且非常忠诚。它的主人小明和小红非常喜欢旺财,把它当作家庭的一员。
今年的狗狗节即将来临,小明和小红决定为旺财准备一份特别的礼物。他们想了很久,最后决定为旺财制作一顶漂亮的帽子。小明和小红开始四处寻找材料,他们找到了一些彩色的丝带、布料和纽扣。经过一番努力,他们终于为旺财制作了一顶独一无二的帽子。
狗狗节那天,整个小镇都沉浸在欢乐的氛围中。狗狗们都穿上了最漂亮的衣服,戴上了最时尚的配饰。小明和小红带着旺财来到了镇上的广场,那里已经聚集了许多人和狗狗。
在广场的一角,有一个舞台,上面摆放着各种狗狗表演的道具。小明和小红带着旺财走上了舞台,他们为旺财戴上了那顶漂亮的帽子。旺财立刻成为了众人瞩目的焦点,它昂首挺胸,神气十足。
接下来,旺财要参加一个狗狗才艺表演比赛。比赛开始了,旺财经过了一系列的考验,展示了它的聪明才智和出色的表演能力。最后,旺财成功地完成了所有任务,赢得了比赛的冠军。
比赛结束后,主持人宣布了一个重要的消息:今年的狗狗节将评选出一位“最佳狗狗主人”,以表彰那些对狗狗无微不至的照顾和关爱。经过激烈的角逐,小明和小红凭借他们对旺财的精心照料和无私奉献,成功当选为“最佳狗狗主人”。
颁奖典礼上,镇长亲自为小明和小红颁发了奖杯和证书。他说:“你们是所有狗狗主人的榜样,你们的爱心和付出让我们看到了人与动物之间最美好的感情。”
从那以后,小明和小红更加珍惜与旺财相处的时光。他们知道,狗狗不仅仅是宠物,更是家庭的一部分,是他们生活中不可或缺的伙伴。而那个小镇上的人们也更加关爱动物,让每一个狗狗都能过上幸福快乐的生活。
// Example 5. Invoke the kernel with a templated prompt and execution settings configured to return JSON
#pragma warning disable SKEXP0013
            arguments = new(new OpenAIPromptExecutionSettings { ResponseFormat = "json_object" }) { { "topic", "chocolate" } };
            Debug.WriteLine(await kernel.InvokePromptAsync("给这种 {{$topic}} 的蛋糕用json格式制作一个食谱 ", arguments));

回答:

{
  "recipe": {
    "name": "Chocolate Cake",
    "ingredients": [
      {
        "item": "flour",
        "quantity": "2 cups"
      },
      {
        "item": "cocoa powder",
        "quantity": "1 cup"
      },
      {
        "item": "baking powder",
        "quantity": "1.5 teaspoons"
      },
      {
        "item": "salt",
        "quantity": "1/2 teaspoon"
      },
      {
        "item": "sugar",
        "quantity": "1.5 cups"
      },
      {
        "item": "butter",
        "quantity": "1 cup"
      },
      {
        "item": "eggs",
        "quantity": "2"
      },
      {
        "item": "vanilla extract",
        "quantity": "2 teaspoons"
      },
      {
        "item": "boiling water",
        "quantity": "1 cup"
      }
    ],
    "instructions": [
      "Preheat the oven to 350°F (175°C).",
      "Grease and flour two 9-inch round cake pans.",
      "In a large bowl, mix together the flour, cocoa powder, baking powder, and salt.",
      "In another bowl, cream together the butter and sugar until light and fluffy. Beat in the eggs one at a time, then stir in the vanilla.",
      "Gradually blend the dry ingredients into the wet ingredients. Beat in the boiling water last. The batter will be thin.",
      "Pour the batter evenly into the prepared pans.",
      "Bake for 30 to 35 minutes, or until a toothpick inserted into the center of the cake comes out clean.",
      "Allow the cakes to cool in the pans for 10 minutes, then remove from the pans and cool completely on wire racks."
    ]
  }
}

返回的是json格式。

参考

semantic-kernel/dotnet/samples/KernelSyntaxExamples at main · microsoft/semantic-kernel (github.com)

推荐阅读:

记一次WPF集成SemanticKernel+OneAPI+讯飞星火认知大模型实践 (qq.com)

目录
相关文章
|
7月前
|
人工智能 自然语言处理 算法
谷歌推出”自我发现“框架,极大增强GPT-4等大模型推理能力
【4月更文挑战第20天】谷歌DeepMind团队推出了SELF-DISCOVER框架,让大型语言模型能自我发现并构建推理结构,提升在复杂任务中的性能。该框架模仿人类解决问题方式,分两阶段选择和适应原子推理模块,以解决挑战。在多任务测试中,SELF-DISCOVER相比传统方法表现出色,性能提升42%,计算量减少10至40倍。它具有跨模型应用的普适性,并与人类思维方式相通。然而,它在某些任务类型上仍有优化空间,且需解决计算成本问题。论文链接:https://arxiv.org/abs/2402.03620
102 1
|
4月前
|
存储 人工智能 异构计算
大模型下HPE GPT解决问题之确保服务高效可靠如何解决
大模型下HPE GPT解决问题之确保服务高效可靠如何解决
37 0
|
2月前
|
机器学习/深度学习 弹性计算 人工智能
大模型进阶微调篇(三):微调GPT2大模型实战
本文详细介绍了如何在普通个人电脑上微调GPT2大模型,包括环境配置、代码实现和技术要点。通过合理设置训练参数和优化代码,即使在无独显的设备上也能完成微调,耗时约14小时。文章还涵盖了GPT-2的简介、数据集处理、自定义进度条回调等内容,适合初学者参考。
392 6
|
2月前
|
机器学习/深度学习 测试技术
ACL杰出论文奖:GPT-4V暴露致命缺陷?JHU等发布首个多模态ToM 测试集,全面提升大模型心智能力
【10月更文挑战第6天】约翰斯·霍普金斯大学等机构提出了一项荣获ACL杰出论文奖的研究,旨在解决大模型在心智理论(ToM)上的不足。他们发布了首个MMToM-QA多模态ToM测试集,并提出BIP-ALM方法,从多模态数据中提取统一表示,结合语言模型进行贝叶斯逆规划,显著提升了模型的ToM能力。这一成果为机器与人类自然交互提供了新思路,尽管仍面临一些局限性和技术挑战。论文详情见:https://arxiv.org/abs/2401.08743。
51 6
|
3月前
|
数据采集 自然语言处理 监控
大模型微调使GPT3成为了可以聊天发布指令的ChatGPT
正是通过微调大模型使得GPT3成为了可以聊天发布指令的ChatGPT。聊天大模型在通用大模型的基础上加一层微调就实现人人能用的大模型,使得通用大模型的能力被更多人使用和了解。
61 4
大模型微调使GPT3成为了可以聊天发布指令的ChatGPT
|
2月前
|
开发工具 git
LLM-03 大模型 15分钟 FineTuning 微调 GPT2 模型 finetuning GPT微调实战 仅需6GB显存 单卡微调 数据 10MB数据集微调
LLM-03 大模型 15分钟 FineTuning 微调 GPT2 模型 finetuning GPT微调实战 仅需6GB显存 单卡微调 数据 10MB数据集微调
69 0
|
4月前
|
人工智能 测试技术
真相了!大模型解数学题和人类真不一样:死记硬背、知识欠缺明显,GPT-4o表现最佳
【8月更文挑战第15天】WE-MATH基准测试揭示大型多模态模型在解决视觉数学问题上的局限与潜力。研究涵盖6500题,分67概念5层次,评估指标包括知识与泛化不足等。GPT-4o表现最优,但仍存多步推理难题。研究提出知识概念增强策略以改善,为未来AI数学推理指明方向。论文见: https://arxiv.org/pdf/2407.01284
58 1
|
4月前
|
人工智能 API 异构计算
震惊AI界!DeepSeek挑战GPT-4o霸主地位,发布超低价开源大模型
震惊AI界!DeepSeek挑战GPT-4o霸主地位,发布超低价开源大模型
137 2
|
5月前
|
人工智能 数据挖掘 机器人
同样是人工智能 客户在哪儿AI和GPT等大模型有什么不同
客户在哪儿AI生产的是企业全历史行为数据,同时还针对ToB企业,提供基于企业全历史行为数据的数据分析服务。
|
5月前
|
人工智能 算法
国内AI大模型高考数学成绩超GPT-4o
【7月更文挑战第13天】国内AI大模型高考数学成绩超GPT-4o

热门文章

最新文章