前端开发神器之ngrok

简介: ngrok能做什么,为什么是前端开发神器?

内网穿透,映射本地开发环境到公网,模拟多终端线上环境。

结合一个很简单的PWA demo,举个简单的例子


1.克隆demo到本地

git clone https://github.com/minimal-xyz/minimal-pwa.git


image.png

2.本地8080端口运行demo


cnpm i http-server -g
http-server -c-1
chrome http://localhost:8080

image.png

3.ngrok内网穿透到公网


ngrok http 8080

4.查看公网地址

chrome http://127.0.0.1:4040/inspect/http


image.png


5.公网多终端访问

①使用另外一台或本机desktop


chrome http://733a1ad2.ngrok.io


image.png

②使用android,safari mobile,ff mobile等mobile phones

地址栏手动输入http://733a1ad2.ngrok.io


image.png

优点:

1.一条url甩产品脸上

2.内网穿透多终端测试

3.监控请求和响应

缺点:

1.响应时间较长

2.安全性不保证

tips:

1.ngrok下载地址:https://ngrok.com/download

2.环境:git,node,cnpm,ngrok,Chrome

3.chrome和ngrok命令需设置环境变量

4.以上命令在终端中运行即可

5.协议选择https和http都行


题外话:

  今天MDN官方宣布say goodbye to firebug,say hello to pwa and view sources,最后说了很多煽情的话。我只在很久以前用过一次firebug改dom装逼,所以对这些煽情的话无感,倒是对pwa和view source有了很深的兴趣。

  于是借这个大好的加班前夜,学了下PWA,学习链接附上:https://zhuanlan.zhihu.com/p/...,他们家的各种教程不能太好,无论前端还是nodejs,真心不错,以后外卖我只吃饿了么。

  无意中发现ngrok这个神器,一开始以为这家伙只能做内网穿透,后来发现既然公网地址提供出来了,手机上也可以访问啊,一下子有些兴奋,因为第一家实习时学到的移动端前端测试,需要手动配置本地localhost开发环境,而且需要连接到360免费wifi,较为麻烦。

  其实ngrok还有很多其他的功能,有兴趣的同学可以到https://ngrok.com/product查看

努力成为优秀的前端开发工程师!

相关文章
|
7月前
|
前端开发 安全 搜索推荐
【专栏】ngrok` 是一款让本地服务器暴露到公网的工具,提供外网访问、临时公网地址、安全隧道及实时更新功能
`【4月更文挑战第29天】ngrok` 是一款让本地服务器暴露到公网的工具,提供外网访问、临时公网地址、安全隧道及实时更新功能。使用简单,包括下载客户端、注册认证、启动本地服务和执行命令。在前端开发中,ngrok 用于本地开发调试、跨设备测试、前后端联调、演示分享和应急处理。它提高了开发效率,简化网络环境和部署问题。无论是移动应用测试还是团队协作,ngrok 都能发挥关键作用,是前端开发者必备神器。尝试使用 ngrok,提升你的开发体验。
425 3
|
2月前
|
存储 人工智能 前端开发
前端大模型应用笔记(三):Vue3+Antdv+transformers+本地模型实现浏览器端侧增强搜索
本文介绍了一个纯前端实现的增强列表搜索应用,通过使用Transformer模型,实现了更智能的搜索功能,如使用“番茄”可以搜索到“西红柿”。项目基于Vue3和Ant Design Vue,使用了Xenova的bge-base-zh-v1.5模型。文章详细介绍了从环境搭建、数据准备到具体实现的全过程,并展示了实际效果和待改进点。
170 2
|
2月前
|
JavaScript 前端开发 程序员
前端学习笔记——node.js
前端学习笔记——node.js
46 0
|
2月前
|
人工智能 自然语言处理 运维
前端大模型应用笔记(一):两个指令反过来说大模型就理解不了啦?或许该让第三者插足啦 -通过引入中间LLM预处理用户输入以提高多任务处理能力
本文探讨了在多任务处理场景下,自然语言指令解析的困境及解决方案。通过增加一个LLM解析层,将复杂的指令拆解为多个明确的步骤,明确操作类型与对象识别,处理任务依赖关系,并将自然语言转化为具体的工具命令,从而提高指令解析的准确性和执行效率。
|
2月前
|
存储 弹性计算 算法
前端大模型应用笔记(四):如何在资源受限例如1核和1G内存的端侧或ECS上运行一个合适的向量存储库及如何优化
本文探讨了在资源受限的嵌入式设备(如1核处理器和1GB内存)上实现高效向量存储和检索的方法,旨在支持端侧大模型应用。文章分析了Annoy、HNSWLib、NMSLib、FLANN、VP-Trees和Lshbox等向量存储库的特点与适用场景,推荐Annoy作为多数情况下的首选方案,并提出了数据预处理、索引优化、查询优化等策略以提升性能。通过这些方法,即使在资源受限的环境中也能实现高效的向量检索。
|
2月前
|
机器学习/深度学习 弹性计算 自然语言处理
前端大模型应用笔记(二):最新llama3.2小参数版本1B的古董机测试 - 支持128K上下文,表现优异,和移动端更配
llama3.1支持128K上下文,6万字+输入,适用于多种场景。模型能力超出预期,但处理中文时需加中英翻译。测试显示,其英文支持较好,中文则需改进。llama3.2 1B参数量小,适合移动端和资源受限环境,可在阿里云2vCPU和4G ECS上运行。
117 1
|
2月前
|
前端开发 算法 测试技术
前端大模型应用笔记(五):大模型基础能力大比拼-计数篇-通义千文 vs 文心一言 vs 智谱 vs 讯飞vsGPT
本文对比测试了通义千文、文心一言、智谱和讯飞等多个国产大模型在处理基础计数问题上的表现,特别是通过链式推理(COT)提示的效果。结果显示,GPTo1-mini、文心一言3.5和讯飞4.0Ultra在首轮测试中表现优秀,而其他模型在COT提示后也能显著提升正确率,唯有讯飞4.0-Lite表现不佳。测试强调了COT在提升模型逻辑推理能力中的重要性,并指出免费版本中智谱GLM较为可靠。
前端大模型应用笔记(五):大模型基础能力大比拼-计数篇-通义千文 vs 文心一言 vs 智谱 vs 讯飞vsGPT
|
3月前
|
SpringCloudAlibaba JavaScript 前端开发
谷粒商城笔记+踩坑(2)——分布式组件、前端基础,nacos+feign+gateway+ES6+vue脚手架
分布式组件、nacos注册配置中心、openfegin远程调用、网关gateway、ES6脚本语言规范、vue、elementUI
谷粒商城笔记+踩坑(2)——分布式组件、前端基础,nacos+feign+gateway+ES6+vue脚手架
|
4月前
|
存储 前端开发 JavaScript
前端语言串讲 | 青训营笔记
前端语言串讲 | 青训营笔记
48 0
|
6月前
|
JSON 前端开发 JavaScript
前端Ajax、Axios和Fetch的用法和区别笔记
前端Ajax、Axios和Fetch的用法和区别笔记
112 2