四 Lync Server 2013 部署指南-前端部署(1)

简介:

4.1.Lync先决条件安装

部署Lync Server 2013的前端服务器,我们需要在做前端服务器的机器上安装一些Lync必备的一些组件,具体如下:

1、安装.netframework 4.5

image

image

2、安装powershell 3.0

image

3、安装消息列队和桌面体验;

image

重启服务器以完成以上组件的安装,如下图;

image

4、再安装IIS的相关组件;

运行Windows Powershell,输入以下命令:

Import-Module ServerManager

image

5、安装IIS相关组件:

Add-WindowsFeature Web-Server, Web-Static-Content, Web-Default-Doc, Web-Http-Errors, Web-Asp-Net, Web-Net-Ext, Web-ISAPI-Ext, Web-ISAPI-Filter, Web-Http-Logging, Web-Log-Libraries, Web-Request-Monitor, Web-Http-Tracing, Web-Basic-Auth, Web-Windows-Auth, Web-Client-Auth, Web-Filtering, Web-Stat-Compression, Web-Dyn-Compression, NET-WCF-HTTP-Activation45, Web-Asp-Net45, Web-Mgmt-Tools, Web-Scripting-Tools, Web-Mgmt-Compat, Desktop-Experience, BITS -Source D:\sources\sxs

记得将系统的安装镜像打开,这里镜像的路径是D盘

image

image 

6、安装AD管理工具;

image

也可以运行Windows PowerShell安装,命令如下;

Add-WindowsFeature RSAT-ADDS

先决条件安装完毕,接下来进行Lync前端部署。

4.2.Lync 2013安装准备

4.2.1    运行安装程序

插入Lync Sercer 2013安装介质,运行时将出现安装Microsoft Visual C++的对话框,点击【是】此程序将自动安装,无需再单独安装该组件。

image

image 

以上组件安装完成后,就可以为安装Lync 2013做架构准备啦;

image

勾选我接受许可协议中的条款,点击【确定】接受许可协议

image

然后进入核心组件配置阶段;

image

 

4.2.2    架构准备

进入安装界面,点击“准备Active Directory”;

image

image 

1、            准备架构

image

 

image  

2、            验证架构分区的复制

image

3、            准备当前林

image

image

image  

4、            确认复制全局编录

image

5、            准备当前域

image

image

6、            添加用户

AD扩展完成后,我们需要手动将Lync的管理员账户加入到CSAdministrator组中,如下图;

image

接下来我们安装管理工具,如下图;

image

安装成功,如下图;

image

4.2.3    创建拓扑

打开拓扑生成器,选择新建拓扑。

image

选择SIP

image

下一步,添加其它SIP域(由于xx的公网域名为xxx.com,与内部环境中Domain name不一致,在配置多域名时,需要增加公网域名到SIP域):

image

定义Lync站点名称,可随意,关键是识别这个站点就行;

image

站点信息配置,同上,可以随意写;

完成拓扑新建

image

定义前端池

image

下一步,添加服务器到前端池中,本次部署的前端服务器为Lyncfe.xxxx.cn

image

根据客户环境的实际需求,勾选功能,然后下一步;

image

此项目中没有用到中介服务器;

image

下一步,勾选前端池关联;

image

然后下一步,定义SQL Server 存储,在此网络环境中,使用默认实例;

image

image 

确定,然后下一步,定义文件存储,之前有在后端服务器建议共享文件夹,将文件存储定义到些共享文件夹;

 

image

image  

下一步,与OWA服务器关联;

image

image 

下一步,定义边缘池;

image

 

新建边缘池;

image 

输入边缘池的FQDN,由于此环境中只有一台边缘池,故选择“单计算机池”,然后点击下一步

image

由于此环境中,只用到一台边缘服务器,故勾选第一个选项,下一步;

image

下一步;

image

下一步,定义边缘服务器的内、外部IP地址;

下一步,自动填写下一个跃点服务器;

image

完成边缘服务器的创建,新建拓扑完成。接下来添加一个Lync管理地址,如下图;

image

4.2.4    发布拓扑

接下来我们将新建好的拓扑发布出来;

image

image 

选择中央管理存储,如下图

image

在这前指定的数据库服务器上创建相应的数据库,如下图;

image

拓扑发布成功,如下图

image

本文转自   流原炫   51CTO博客,原文链接:http://blog.51cto.com/xiaoyuanzheng/1619504

相关文章
|
2月前
|
Web App开发 缓存 监控
前端性能优化实战:从代码到部署的全面策略
前端性能优化实战:从代码到部署的全面策略
41 1
|
2月前
|
Web App开发 前端开发 JavaScript
前端性能优化实战:从代码到部署的全面指南
前端性能优化实战:从代码到部署的全面指南
45 1
|
2月前
|
资源调度 前端开发 JavaScript
vite3+vue3 实现前端部署加密混淆 javascript-obfuscator
【11月更文挑战第10天】本文介绍了在 Vite 3 + Vue 3 项目中使用 `javascript-obfuscator` 实现前端代码加密混淆的详细步骤,包括安装依赖、创建混淆脚本、修改 `package.json` 脚本命令、构建项目并执行混淆,以及在 HTML 文件中引用混淆后的文件。通过这些步骤,可以有效提高代码的安全性。
181 2
|
2月前
|
缓存 监控 前端开发
前端性能优化:从代码到部署的全面策略
前端性能优化:从代码到部署的全面策略
|
3月前
|
存储 人工智能 前端开发
前端大模型应用笔记(三):Vue3+Antdv+transformers+本地模型实现浏览器端侧增强搜索
本文介绍了一个纯前端实现的增强列表搜索应用,通过使用Transformer模型,实现了更智能的搜索功能,如使用“番茄”可以搜索到“西红柿”。项目基于Vue3和Ant Design Vue,使用了Xenova的bge-base-zh-v1.5模型。文章详细介绍了从环境搭建、数据准备到具体实现的全过程,并展示了实际效果和待改进点。
239 14
|
3月前
|
JavaScript 前端开发 程序员
前端学习笔记——node.js
前端学习笔记——node.js
68 0
|
3月前
|
人工智能 自然语言处理 运维
前端大模型应用笔记(一):两个指令反过来说大模型就理解不了啦?或许该让第三者插足啦 -通过引入中间LLM预处理用户输入以提高多任务处理能力
本文探讨了在多任务处理场景下,自然语言指令解析的困境及解决方案。通过增加一个LLM解析层,将复杂的指令拆解为多个明确的步骤,明确操作类型与对象识别,处理任务依赖关系,并将自然语言转化为具体的工具命令,从而提高指令解析的准确性和执行效率。
|
3月前
|
存储 弹性计算 算法
前端大模型应用笔记(四):如何在资源受限例如1核和1G内存的端侧或ECS上运行一个合适的向量存储库及如何优化
本文探讨了在资源受限的嵌入式设备(如1核处理器和1GB内存)上实现高效向量存储和检索的方法,旨在支持端侧大模型应用。文章分析了Annoy、HNSWLib、NMSLib、FLANN、VP-Trees和Lshbox等向量存储库的特点与适用场景,推荐Annoy作为多数情况下的首选方案,并提出了数据预处理、索引优化、查询优化等策略以提升性能。通过这些方法,即使在资源受限的环境中也能实现高效的向量检索。
|
3月前
|
机器学习/深度学习 弹性计算 自然语言处理
前端大模型应用笔记(二):最新llama3.2小参数版本1B的古董机测试 - 支持128K上下文,表现优异,和移动端更配
llama3.1支持128K上下文,6万字+输入,适用于多种场景。模型能力超出预期,但处理中文时需加中英翻译。测试显示,其英文支持较好,中文则需改进。llama3.2 1B参数量小,适合移动端和资源受限环境,可在阿里云2vCPU和4G ECS上运行。
160 1
|
3月前
|
前端开发 算法 测试技术
前端大模型应用笔记(五):大模型基础能力大比拼-计数篇-通义千文 vs 文心一言 vs 智谱 vs 讯飞vsGPT
本文对比测试了通义千文、文心一言、智谱和讯飞等多个国产大模型在处理基础计数问题上的表现,特别是通过链式推理(COT)提示的效果。结果显示,GPTo1-mini、文心一言3.5和讯飞4.0Ultra在首轮测试中表现优秀,而其他模型在COT提示后也能显著提升正确率,唯有讯飞4.0-Lite表现不佳。测试强调了COT在提升模型逻辑推理能力中的重要性,并指出免费版本中智谱GLM较为可靠。
前端大模型应用笔记(五):大模型基础能力大比拼-计数篇-通义千文 vs 文心一言 vs 智谱 vs 讯飞vsGPT