SharePoint自动化系列——通过PowerShell在SharePoint中批量做数据

简介: 转载请注明出自天外归云的博客园:http://www.cnblogs.com/LanTianYou/ PowerShell是基于.NET的一门脚本语言,对于SharePoint一些日常操作支持的很好。

转载请注明出自天外归云的博客园:http://www.cnblogs.com/LanTianYou/

PowerShell是基于.NET的一门脚本语言,对于SharePoint一些日常操作支持的很好。今天上午同事做数据量测试,要在一个site下创建500个list和500个library,在一个list中创建1000个item,这样的需求通过PowerShell脚本实现是非常容易的。

下面是为这项测试写的两个小

Add-PSSnapin Microsoft.SharePoint.PowerShell
//在list中创建1000个item
function CreateListData
{
    param($siteUrl,$listTitle)
    $site = Get-SPSite $siteUrl
    $web = $site.rootweb
    $List = $web.lists[$listTitle]
    for($i=1;$i -le 1000;$i++){
        $date = Get-Date
        $random = Get-Random 100
        $sign = $date.month+$date.day+$date.hour+$date.minute+$date.second+$random
        $newItem = $List.Items.Add()
        $newItem["Title"] = $random.ToString() + $sign.ToString() + $List.Title + "TestData"
        $newItem.Update()
    }
}
//删除指定list中数据
function DeleteListData
{
    param($siteUrl,$listTitle)
    $site = Get-SPSite $siteUrl
    $web = $site.rootweb
    $List = $web.lists[$listTitle]
    foreach($item in $list.items)
    {
        $List.getitembyid($item.id).delete()
    }
}
//创建list和library各500个
function CreateLibsAndLists
{
    param($siteUrl)
    $site = Get-SPSite $siteUrl
    $web = $site.rootweb
    for($i=1;$i -le 500;$i++)
    {    
        $web.Lists.Add("TestDocLib"+$i,"",$web.ListTemplates["Document Library"])
    }
    for($i=1;$i -le 500;$i++)
    {    
        $web.Lists.Add("TestCusList"+$i,"",$web.ListTemplates["Custom List"])
    }
}

管理员权限运行PowerShell后,复制上述脚本在PowerShell窗口内点右键粘贴进去,按回车,然后执行下述的命令就可以实现批量做数据的需求了:

//删除list数据命令
DeleteListData -siteUrl "Your site's Url" -listTitle "Your list's title"  
//创建list item命令
CreateListData -siteUrl "Your site's Url" -listTitle "Your list's title"
 //创建list和library命令
CreateLibsAndLists

 

相关文章
GraphQL接口采集:自动化发现和提取隐藏数据字段
本文围绕GraphQL接口采集展开,详解如何通过`requests`+`Session`自动化提取隐藏数据字段,结合爬虫代理、Cookie与User-Agent设置实现精准抓取。内容涵盖错误示例(传统HTML解析弊端)、正确姿势(GraphQL请求构造)、原因解释(效率优势)、陷阱提示(反爬机制)及模板推荐(可复用代码)。掌握全文技巧,助你高效采集Yelp商家信息,避免常见误区,快速上手中高级爬虫开发。
GraphQL接口采集:自动化发现和提取隐藏数据字段
利用Python自动化处理Excel数据:从基础到进阶####
本文旨在为读者提供一个全面的指南,通过Python编程语言实现Excel数据的自动化处理。无论你是初学者还是有经验的开发者,本文都将帮助你掌握Pandas和openpyxl这两个强大的库,从而提升数据处理的效率和准确性。我们将从环境设置开始,逐步深入到数据读取、清洗、分析和可视化等各个环节,最终实现一个实际的自动化项目案例。 ####
621 10
微店商品详情API接口实战指南:从零实现商品数据自动化获取
本文介绍了微店商品详情API接口的应用,涵盖申请与鉴权、签名加密、数据解析等内容。通过Python实战演示了5步获取商品数据的流程,并提供了多平台同步、价格监控等典型应用场景。开发者可利用此接口实现自动化操作,提升电商运营效率,降低人工成本。文中还总结了频率限制、数据缓存等避坑指南,助力开发者高效使用API。
微店API开发全攻略:解锁电商数据与业务自动化的核心能力
微店开放平台提供覆盖商品、订单、用户、营销、物流五大核心模块的API接口,支持企业快速构建电商中台系统。其API体系具备模块化设计、双重认证机制、高并发支持和数据隔离等特性。文档详细解析了商品管理、订单处理、营销工具等核心接口功能,并提供实战代码示例。同时,介绍了企业级整合方案设计,如订单全链路自动化和商品数据中台架构,以及性能优化与稳定性保障措施。最后,针对高频问题提供了排查指南,帮助开发者高效利用API实现电商数智化转型。适合中高级开发者阅读。
自动化数据处理:使用Selenium与Excel打造的数据爬取管道
本文介绍了一种使用Selenium和Excel结合代理IP技术从WIPO品牌数据库(branddb.wipo.int)自动化爬取专利信息的方法。通过Selenium模拟用户操作,处理JavaScript动态加载页面,利用代理IP避免IP封禁,确保数据爬取稳定性和隐私性。爬取的数据将存储在Excel中,便于后续分析。此外,文章还详细介绍了Selenium的基本设置、代理IP配置及使用技巧,并探讨了未来可能采用的更多防反爬策略,以提升爬虫效率和稳定性。
392 4
PC Agent:开源 AI 电脑智能体,自动收集人机交互数据,模拟认知过程实现办公自动化
PC Agent 是上海交通大学与 GAIR 实验室联合推出的智能 AI 系统,能够模拟人类认知过程,自动化执行复杂的数字任务,如组织研究材料、起草报告等,展现了卓越的数据效率和实际应用潜力。
411 1
PC Agent:开源 AI 电脑智能体,自动收集人机交互数据,模拟认知过程实现办公自动化
使用 Puppeteer 绕过 Captcha:实现商家数据自动化采集
本文介绍了如何使用Puppeteer结合代理IP和用户伪装技术,轻松绕过大众点评的Captcha验证,实现商家信息的高效采集。通过配置Puppeteer、设置代理和用户伪装参数、模拟人类操作等步骤,成功提取了目标页面的数据。该方法不仅提高了爬虫的稳定性和隐蔽性,还为市场研究和商业分析提供了有力支持。注意,数据采集需遵守法律法规及网站政策。
161 1
使用 Puppeteer 绕过 Captcha:实现商家数据自动化采集
员工网络监控软件:PowerShell 在网络监控自动化中的应用
在数字化办公环境中,企业对员工网络活动的监控需求日益增长。PowerShell 作为一种强大的脚本语言,能够有效实现员工网络监控自动化。本文介绍了如何使用 PowerShell 获取网络连接信息、监控特定网址的访问情况,并生成自动化报告,帮助企业高效管理员工网络活动,确保网络安全和合规性。
145 0
PowerShell 脚本编写 :自动化Windows 开发工作流程
PowerShell 脚本编写 :自动化Windows 开发工作流程
279 0
下一篇
oss创建bucket
AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等