Star 72.4k!神仙级开源项目,真的一行代码都没有!

简介: Star 72.4k!神仙级开源项目,真的一行代码都没有!

前言


在 GitHub 开源社区,我们经常能发现一些优秀的开源高分项目!有时候为了找到最优秀的开源项目,却往往要在 GitHub 上搜罗很久,很消耗时间。


今天小编就给大家推荐一个近乎于完美的 GitHub 中文排行榜,在这里,所有优秀的高分项目都有,而且做出了排行!


项目介绍


该项目的英文名就叫做 GitHub-Chinese-Top-Charts ,中文翻译过来就是 GitHub 中文排行榜。项目上线至今已然达到了72.4k的Star!


GitHub 中文排行榜:https://github.com/GrowingGit/GitHub-Chinese-Top-Charts

GitHub 中文排行榜,可以帮助我们发现高分优秀的中文项目、更高效地吸收国人的优秀经验成果。各语言分设「软件 | 资料」榜单,精准定位中文好项目。各取所需,高效学习。


而且其榜单每周更新一次。小编看了最新的更新日期是 2023-12-18,因为该项目作者已经上线好几年了,说明还在更新扩展当中。


榜单设立目的


  • 帮助你发现高分优秀中文项目;
  • 各位开发者伙伴可以更高效地吸收本土化的优秀经验、成果;
  • 中文项目可能只满足阶段性的需求,想要有进一步提升,还请多花时间学习更高分的英文项目;


榜单设立范围


该排行榜设立1个总榜(所有语言项目汇总排名)、29 个分榜(按照单个语言项目排名)。


种类很全面,基本涵盖了所有编程语言的 Top N 热门项目!


项目特色亮点


中文排行榜


  • 筛选出有中文文档的项目进行排名,帮助大家更低门槛探索优秀开源项目,打破语言障碍;
  • 中文项目既包含国产好项目,也包含国外优质的含中文文档的项目;
  • 评选逻辑是保持活跃+总星数;


中文增速榜


  • 帮助大家发现增速较快的项目,优秀不止于老项目;
  • 评选逻辑是保持活跃+日均涨星数;


中文新秀榜


  • 帮助大家发现近一年的潜力新项目,后起之秀就在这里;
  • 评选逻辑是保持活跃+近一年内创建的较高星项目;


软件与资料项目分榜


  • 破除软件与资料项目互相干扰视线的烦恼,让大家更精准、高效地找到各自所需项目;
  • 存在即是合理,项目无分贵贱,大家能高效各取所需才是最重要的;


总榜排名


总榜排名列举了排名前 200 的热门项目,按照 star 数降序排名。


下面是截止2023年12月19日的 Top 8 排行列表:

下面再来看几个分榜情况!


Python分榜


Python 分榜也列举了 Top 200 项目,最高 star 有 117k。


Java分榜


Java 分榜也列举了 Top 200 项目,最高 star 有 72.5k。

其他的语言小编这里就不一一列举了。基本上搜罗了所有本地的所有语言的优秀高分开源项目,妥妥的神仙级福利知识库。


总结


GitHub 中文排行榜 项目几乎包含了各种编程语言的项目排行。如果你正在寻找某种语言的优秀开源项目或者学习资料,高分的开源框架,又或者想涨涨见识,那么该项目应该是个不二之选。


此外,作者也创建了GitHub英文排行榜,如果你的中文项目已通关或者想看下国外有什么优秀的高分项目,也可以一键直达。


GitHub英文排行榜:https://github.com/kon9chunkit/GitHub-English-Top-Charts

相关文章
|
Java 应用服务中间件 nginx
Nginx之服务端获取真实客户端IP
Nginx之服务端获取真实客户端IP
530 5
|
网络协议
免费的几款内网穿透工具
免费的几款内网穿透工具
13690 1
|
人工智能 自然语言处理 程序员
开测: AI智能编码辅助工具通义灵码V2.0 来了
通义灵码2.0是阿里云推出的AI编程助手,基于DeepSeek大模型进行快速迭代,显著提升了代码生成、多任务协作和模型性能。
1001 12
开测: AI智能编码辅助工具通义灵码V2.0 来了
|
机器学习/深度学习 自然语言处理 数据建模
三种Transformer模型中的注意力机制介绍及Pytorch实现:从自注意力到因果自注意力
本文深入探讨了Transformer模型中的三种关键注意力机制:自注意力、交叉注意力和因果自注意力,这些机制是GPT-4、Llama等大型语言模型的核心。文章不仅讲解了理论概念,还通过Python和PyTorch从零开始实现这些机制,帮助读者深入理解其内部工作原理。自注意力机制通过整合上下文信息增强了输入嵌入,多头注意力则通过多个并行的注意力头捕捉不同类型的依赖关系。交叉注意力则允许模型在两个不同输入序列间传递信息,适用于机器翻译和图像描述等任务。因果自注意力确保模型在生成文本时仅考虑先前的上下文,适用于解码器风格的模型。通过本文的详细解析和代码实现,读者可以全面掌握这些机制的应用潜力。
1356 3
三种Transformer模型中的注意力机制介绍及Pytorch实现:从自注意力到因果自注意力
|
人工智能 架构师 项目管理
软件工程师,超过35岁怎么办
软件工程师,超过35岁怎么办
685 71
|
监控 程序员 芯片
DOS操作系统的发展历程
【10月更文挑战第15天】DOS操作系统的发展历程
1088 2
|
存储 Kubernetes 前端开发
k8s部署DataEase1.16.0cluster模式
k8s部署DataEase1.16.0cluster模式
|
人工智能 安全 数据安全/隐私保护
大模型安全治理的政策法规和标准规范
【1月更文挑战第23天】大模型安全治理的政策法规和标准规范
1025 1
大模型安全治理的政策法规和标准规范
|
JavaScript 前端开发 API
node+vue3+mysql前后分离开发范式——实现对数据库表的增删改查
node+vue3+mysql前后分离开发范式——实现对数据库表的增删改查
736 1
|
存储 算法 安全