计算机二级Python大题(删减压缩版)(下)

简介: 计算机二级Python大题(删减压缩版)

第十二套


4




import turtle as t
ls = [69, 292, 33, 131, 61, 254]
X_len = 400
Y_len = 300
x0 = -200
y0 = -100
t.penup()
t.goto(x0, y0)
t.pendown()
t.fd(X_len)
t.fd(-X_len)
t.seth(90)
t.fd(Y_len)
t.pencolor('red')
t.pensize(5)
for i in range(len(ls)):
    t.penup()
    t.goto(x0 + (i+1)*50, -100)
    t.seth(90)
    t.pendown()
    t.fd(ls[i])
t.done()


6



import jieba
def fenci(txt):
    f = open(txt, "r")
    datas = f.read()
    f.close()
    data = jieba.lcut(datas)
    d = {}
    for i in data:
        if len(i) >= 2:
            d[i] = d.get(i, 0) + 1
    lt = list(d.items())
    lt.sort(key=lambda x: x[1], reverse=True)
    return lt
def show(lt):
    for i in lt[:9]:
        print(i[0], ":", i[1], end=',',sep="")
    print(lt[9][0], ":", lt[9][1],sep="")
l1 = fenci("data2018.txt")
l2 = fenci("data2019.txt")
print(2019, end=':')
show(l2)
print(2018, end=':')
show(l1)


import jieba
def fenci(txt):
    f = open(txt, "r")
    datas = f.read()
    f.close()
    data = jieba.lcut(datas)
    d = {}
    for i in data:
        if len(i) >= 2:
            d[i] = d.get(i, 0) + 1
    lt = list(d.items())
    lt.sort(key=lambda x: x[1], reverse=True)
    ls = [x[0] for x in lt[:10]]
    return ls
def show(lt):
    print(','.join(lt))
l1 = fenci("data2018.txt")
l2 = fenci("data2019.txt")
l3 = []
for i in l1:
    if i in l2:
        l3.append(i)
for i in l3:
    l1.remove(i)
    l2.remove(i)
print("共有词语:", end='')
show(l3)
print('2019特有:', end='')
show(l2)
print('2018特有:', end='')
show(l1)


第十三套


4




import turtle as t
import random as r
color = ['red','orange','blue','green','purple']
r.seed(1)
for i in range(5):
    rad = r.randint(20,50)
    x0 = r.randint(-100,100)
    y0 = r.randint(-100,100)
    t.color(r.choice(color))
    t.penup()
    t.goto(x0,y0)
    t.pendown()
    t.circle(rad)
t.done()


5




img = [0.244, 0.832, 0.903, 0.145, 0.26, 0.452]
filter = [0.1,0.8,0.1]
res = []
for i in range(len(img)-2):
    k = 0
    for j in range(len(filter)):
        k += filter[j] * img[j+i]
        print("k={:.3f} ,filter[{}]={:.3f} ,img[{}{}{}]={:.3f}".format(k,j,filter[j],i,'+',j,img[i+j]))
    res.append(k)
for r in res:
    print('{:<10.3f}'.format(r),end = '')


6



import jieba
fi = open("data.txt","r",encoding='utf-8')
data = fi.read()
fo = open("clean.txt","w")
s = ''
except_word = ",。?、‘’“”;:()\n--!"
for i in data:
    if i not in except_word:
        s += i
fo.write(s)
fi.close()
fo.close()


import jieba
fi = open("clean.txt", "r")
data = fi.read()
words = jieba.lcut(data)
d = {}
for word in words:
    if len(word)>=3:
        d[word] = d.get(word, 0) + 1
lt = list(d.items())
lt.sort(key=lambda x: x[1], reverse=True)
for i in lt[:9]:
    print(i[0], ":", i[1], end=',', sep='')
print(lt[9][0], ":", lt[9][1], sep='')
fi.close()


第十四套


3




a, b, c = [eval(x) for x in input().split(",")]
ls = []
for i in range(c):
    ls.append(str(a*(b**i)))
print(",".join(ls))


4




import turtle
turtle.pensize(2)
for i in range(4):
    turtle.fd(200)
    turtle.left(90)
turtle.left(-45)
turtle.circle(100*pow(2,0.5))


6



fi = open("data.txt", "r")
f = open("univ.txt", "w")
L = []
lines = fi.readlines()
for line in lines:
    if 'alt=' in line:
        begin = line.find('alt=')
        end = line.find('"', begin + 5)
        L.append(line[begin + 5:end])
for i in L:
    f.write(i + "\n")
fi.close()
f.close()


# 请在______处使用一行或多行代码替换
#
# 注意:其他已给出代码仅作为提示,可以修改
f = open("univ.txt", "r")
n = 0   # 包含大学的名称数量
m = 0
L = []
names = f.readlines()
for name in names:
    name = name.strip("\n")
    if "大学生" not in name:
        if "大学" in name:
            L.append(name)
        elif "学院" in name:
            L.append(name)
for name in L:
    if name[-2:] == "学院":
        m += 1
    else:
        n += 1
    print(name)
f.close()
print("包含大学的名称数量是{}".format(n))
print("包含学院的名称数量是{}".format(m))


第十五套


5



f = open("vote.txt")
names = f.readlines()
f.close()
n = 0
for name in names:
    num = len(name.split())
    if num == 1:
        n += 1
print("有效票{}张".format(n))


f = open("vote.txt")
names = f.readlines()
f.close()
L = []
for name in names:
    num = len(name.split())
    if num == 1:
        L.append(name.strip("\n"))
d = {}
for name in L:
    d[name] = d.get(name,0) + 1
ls = list(d.items())
ls.sort(key=lambda x:x[1], reverse=True) # 此行可以按照词频由高到低排序
print("{}:{}".format(ls[0][0],ls[1][1]))


6



# 请在...处使用多行代码替换
#
# 注意:其他已给出代码仅作为提示,可以修改
import jieba
fi = open("data.txt", "r")
f = open('out1.txt', 'w')
txt = fi.read()
words = jieba.lcut(txt)
words = list(set(words))
for word in words:
    if len(word)>=3:
        f.write(word+"\n")
fi.close()
f.close()


import jieba
fi = open("data.txt", 'r')
fo = open('out2.txt', 'w')
txt = fi.read()
words = jieba.lcut(txt)
d = {}
for word in words:
    if len(word) >= 3:
        d[word] = d.get(word, 0) + 1
ls = list(d.items())
ls.sort(key=lambda x: x[1], reverse=True)  # 此行可以按照词频由高到低排序
for i in ls:
    a = i[0]+":"+str(i[1])
    fo.write(a+"\n")
fi.close()
fo.close()


第十六套


2




s = input("请输入中文和字母的组合: ")
count = 0
for c in s:
    if '\u4e00' <= c <= '\u9fff':
        count += 1
print(count)


5




f = open('data.txt','r')
dic={}
for line in f:
    l=line.strip().split(',')
    if len(l)<3:
        continue
    dic[l[-1]]=dic.get(l[-1],[])+[l[1]]
unis=list(dic.items())
unis.sort(key=lambda x:len(x[1]),reverse=True)
for d in unis:
print('{:>4}: {:>4} : {}'.format(d[0],len(d[1]),' '.join(d[1]))) 


6



import jieba
f = "红楼梦.txt"
sf = "停用词.txt"
f1 = open(f, "r", encoding='utf-8')
datas = f1.read()
f1.close()
f2 = open(sf, "r", encoding='utf-8')
words = f2.read()
f2.close()
data = jieba.lcut(datas)
d = {}
word = ["一个", "如今", "一面", "众人", "说道", "只见", "不知",
        "两个", "起来", "二人", "今日", "听见", "不敢", "不能",
        "东西", "只得", "心中", "回来", "几个", "原来", "进来",
        "出去", "一时", "银子", "起身", "答应", "回去"]
for i in data:
    if len(i) < 2 or i in words or i in word:
        continue
    if i in ['凤姐', "凤姐儿", "凤丫头"]:
        i = "凤姐"
    elif i in ["宝玉", "二爷", "宝二爷"]:
        i = "宝玉"
    elif i in ["黛玉", "颦儿", "林妹妹", "黛玉道"]:
        i = "黛玉"
    elif i in ["宝钗", "宝丫头"]:
        i = "宝钗"
    elif i in ["贾母", "老祖宗"]:
        i = "贾母"
    elif i in ["袭人", "袭人道"]:
        i = "袭人"
    elif i in ["贾政", "贾政道"]:
        i = "贾政"
    elif i in ["贾琏", "琏二爷"]:
        i = "贾琏"
    d[i] = d.get(i, 0) + 1
l = list(d.items())
l.sort(key=lambda x: x[::-1], reverse=True)
f = open("result.csv", "w")
for i in l:
    if i[1] < 40:
        break
    f.write(i[0] + ',' + str(i[1]) + '\n')
f.close()


第十七套


2




import time
t = input("请输入一个浮点数时间信息: ")
s = time.ctime(eval(t))
ls = s.split()
print(ls[3].split(':')[0])


5




sumtime = 0
percls = []
ts = {}
with open('out.txt', 'r') as f:
    for i in f:
        i = i.strip().split(',')
        ts[i[0]] = i[2]
        sumtime += eval(i[1])
print('the total execute time is ', sumtime)
tns = list(ts.items())
tns.sort(key=lambda x: x[1], reverse=True)
for i in range(3):
    print('the top {} percentage time is {}, spent in "{}" operation'.format(i, tns[i][1], tns[i][0]))


6



f = open("八十天环游地球.txt")
fo = open("八十天环游地球-章节.txt","w")
txt = f.readlines()
for line in txt:
    line = line.strip()
    if line[0]=="第" and line[2]=="章":
        fo.write(line+"\n")
fo.close()
f.close()


import jieba
f = open("八十天环游地球.txt")
datas = f.readlines()
l = []
for i in range(len(datas)):
    if datas[i][0] == "第" and datas[i][2] == "章":
        l.append(i)   # 每章节所在索引
    # line = datas[i].split(' ')
    # if datas[i][0] == "第" and "章" in line[0]:
    #     l.append(i)
for i in range(len(l)):
    if i != len(l) - 1:   # 最后一章节
        data = ''.join(datas[l[i]:l[i + 1]])
    else:
        data = ''.join(datas[l[i]:])
    s = data.split()[0]   # 第几章
    words = jieba.lcut(data)
    d = {}
    for y in words:
        if len(y) < 2:
            continue
        d[y] = d.get(y, 0) + 1
    lis = list(d.items())
    lis.sort(key=lambda x: x[1], reverse=True)
    print(s, lis[0][0], lis[0][1])
f.close()


新增1


6



L = []
fo = open("score.txt", "r")
fi = open("candidate0.txt", "w")
lines = fo.readlines()
for line in lines:
    line = line.strip()
    student = line.split(' ')
    sum = 0
    for i in range(1, 11):
        sum += int(student[-i])
    student.append(str(sum))
    L.append(student)
L.sort(key=lambda x: x[-1], reverse=True)
for i in range(10):
    fi.write(' '.join(L[i][:-1]) + '\n')
fo.close()
fi.close()


fi = open("candidate0.txt", "r")
fo = open("candidate.txt", 'w')
L = []
lines = fi.readlines()
for line in lines:
    line = line.strip()
    student = line.split(' ')
    for i in student[2:]:
        if int(i) < 60:
            break
    else:
        L.append(student[:2])
for i in L:
    fo.write(' '.join(i) + '\n')
fi.close()
fo.close()


新增2


5



f=open("name.txt")
names=f.readlines()
f.close()
f=open("vote.txt")
votes=f.readlines()
f.close()
f=open("vote1.txt","w")
D={}
NUM=0
for vote in votes:
    num = len(vote.split())
    if num==1 and vote in names:
        D[vote[:-1]]=D.get(vote[:-1], 0)+1
        NUM+=1
    else:
        f.write(vote)
f.close()        
l=list(D.items())
l.sort(key=lambda s:s[1],reverse=True)
name=l[0][0]
score=l[0][1]
print("有效票数为:{} 当选村长村民为:{},票数为:{}".format(NUM,name,score))


6



import jieba
f = open('data.txt','r')   
lines = f.readlines()
f.close()
f = open('out.txt','w')    
for line in lines:     
    line=line.strip(' ')              #删除每行首尾可能出现的空格
    wordList = jieba.lcut(line)         #用结巴分词,对每行内容进行分词
    f.writelines('\n'.join(wordList))  #将分词结果存到文件out.txt中
f.close()


import jieba
f = open('out.txt','r')    #以读的方式打开文件
words = f.readlines()
f.close()
D={}
for w in words:        #词频统计
    D[w[:-1]]=D.get(w[:-1], 0) + 1
print("曹操出现次数为:{}  ".format(D["曹操"]))


新增3


3




def f(n):
    s = 0
    if n%2==1:
        for i in range(1, n+1, 2):
            s += 1/i
    else:
        for i in range(2, n+1, 2):
            s += 1/i
    return s
n = int(input())
print('{:.2f}'.format(f(n)))


5




import jieba
s = input("请输入一段中文文本,句子之间以逗号或句号分隔:")
slist = jieba.lcut(s)
m = 0
for i in slist:
    if i in ",。":
        continue
    m += 1
    print(i, end='/')
print("\n中文词语数是:{}\n".format(m))
ss = ''
for i in s:
    if i in ',。':
        print('{:^20}'.format(ss))
        ss = ''
        continue
    ss += i


6



fi = open("data.txt",'r')
fo = open("studs.txt",'w')
datas = fi.readlines()
for data in datas:
    data1 = data.strip().split(':')
    data2 = data1[1].split(',')
    name = data1[0]
    score = data2[1]
    fo.write(name+":"+score+"\n")
fi.close()
fo.close()


fi = open("data.txt",'r')
datas = fi.readlines()
d = {}
for data in datas:
    data1 = data.strip().split(':')
    data2 = data1[1].split(',')
    name = data1[0]
    score = data2[1]
    d[name] = score
lst = list(d.items())
lst.sort(key=lambda x:x[1], reverse=True)
print(lst[0][0]+":"+lst[0][1])
fi.close()


fi = open("data.txt", 'r')
datas = fi.readlines()
d = {}
for data in datas:
    data1 = data.strip().split(':')[1]
    banji, score = data1.split(',')
    d[banji] = d.get(banji, []) + [int(score)]
for i in d.items():
    print(i[0] + ":" + "{:.2f}".format(sum(i[1]) / len(i[1])))
fi.close()
目录
相关文章
|
2月前
|
机器学习/深度学习 算法 TensorFlow
动物识别系统Python+卷积神经网络算法+TensorFlow+人工智能+图像识别+计算机毕业设计项目
动物识别系统。本项目以Python作为主要编程语言,并基于TensorFlow搭建ResNet50卷积神经网络算法模型,通过收集4种常见的动物图像数据集(猫、狗、鸡、马)然后进行模型训练,得到一个识别精度较高的模型文件,然后保存为本地格式的H5格式文件。再基于Django开发Web网页端操作界面,实现用户上传一张动物图片,识别其名称。
92 1
动物识别系统Python+卷积神经网络算法+TensorFlow+人工智能+图像识别+计算机毕业设计项目
|
2月前
|
Python
用python转移小文件到指定目录并压缩,脚本封装
这篇文章介绍了如何使用Python脚本将大量小文件转移到指定目录,并在达到大约250MB时进行压缩。
38 2
|
1月前
|
机器学习/深度学习 人工智能 算法
【玉米病害识别】Python+卷积神经网络算法+人工智能+深度学习+计算机课设项目+TensorFlow+模型训练
玉米病害识别系统,本系统使用Python作为主要开发语言,通过收集了8种常见的玉米叶部病害图片数据集('矮花叶病', '健康', '灰斑病一般', '灰斑病严重', '锈病一般', '锈病严重', '叶斑病一般', '叶斑病严重'),然后基于TensorFlow搭建卷积神经网络算法模型,通过对数据集进行多轮迭代训练,最后得到一个识别精度较高的模型文件。再使用Django搭建Web网页操作平台,实现用户上传一张玉米病害图片识别其名称。
55 0
【玉米病害识别】Python+卷积神经网络算法+人工智能+深度学习+计算机课设项目+TensorFlow+模型训练
|
2月前
|
机器学习/深度学习 算法 TensorFlow
交通标志识别系统Python+卷积神经网络算法+深度学习人工智能+TensorFlow模型训练+计算机课设项目+Django网页界面
交通标志识别系统。本系统使用Python作为主要编程语言,在交通标志图像识别功能实现中,基于TensorFlow搭建卷积神经网络算法模型,通过对收集到的58种常见的交通标志图像作为数据集,进行迭代训练最后得到一个识别精度较高的模型文件,然后保存为本地的h5格式文件。再使用Django开发Web网页端操作界面,实现用户上传一张交通标志图片,识别其名称。
102 6
交通标志识别系统Python+卷积神经网络算法+深度学习人工智能+TensorFlow模型训练+计算机课设项目+Django网页界面
|
2月前
|
机器学习/深度学习 人工智能 算法
【新闻文本分类识别系统】Python+卷积神经网络算法+人工智能+深度学习+计算机毕设项目+Django网页界面平台
文本分类识别系统。本系统使用Python作为主要开发语言,首先收集了10种中文文本数据集("体育类", "财经类", "房产类", "家居类", "教育类", "科技类", "时尚类", "时政类", "游戏类", "娱乐类"),然后基于TensorFlow搭建CNN卷积神经网络算法模型。通过对数据集进行多轮迭代训练,最后得到一个识别精度较高的模型,并保存为本地的h5格式。然后使用Django开发Web网页端操作界面,实现用户上传一段文本识别其所属的类别。
90 1
【新闻文本分类识别系统】Python+卷积神经网络算法+人工智能+深度学习+计算机毕设项目+Django网页界面平台
|
2月前
|
前端开发 搜索推荐 算法
中草药管理与推荐系统Python+Django网页界面+推荐算法+计算机课设系统+网站开发
中草药管理与推荐系统。本系统使用Python作为主要开发语言,前端使用HTML,CSS,BootStrap等技术和框架搭建前端界面,后端使用Django框架处理应用请求,使用Ajax等技术实现前后端的数据通信。实现了一个综合性的中草药管理与推荐平台。具体功能如下: - 系统分为普通用户和管理员两个角色 - 普通用户可以登录,注册、查看物品信息、收藏物品、发布评论、编辑个人信息、柱状图饼状图可视化物品信息、并依据用户注册时选择的标签进行推荐 和 根据用户对物品的评分 使用协同过滤推荐算法进行推荐 - 管理员可以在后台对用户和物品信息进行管理编辑
85 12
中草药管理与推荐系统Python+Django网页界面+推荐算法+计算机课设系统+网站开发
|
1月前
|
Python
Python编程--解压缩文件
Python编程--解压缩文件
|
1月前
|
Python
你知道 Python 如何解压缩数据吗
你知道 Python 如何解压缩数据吗
52 1
|
2月前
|
Python
python3压缩和解压文件总结(python经典编程案例)
这篇文章总结了在Python 3中使用不同库对文件进行压缩和解压的方法,包括tar、7z、zip和gzip格式的操作示例。
28 4
|
2月前
|
机器学习/深度学习 人工智能 算法
【果蔬识别系统】Python+卷积神经网络算法+人工智能+深度学习+计算机毕设项目+Django网页界面平台
【果蔬识别系统】Python+卷积神经网络算法+人工智能+深度学习+计算机毕设项目+Django网页界面平台。果蔬识别系统,本系统使用Python作为主要开发语言,通过收集了12种常见的水果和蔬菜('土豆', '圣女果', '大白菜', '大葱', '梨', '胡萝卜', '芒果', '苹果', '西红柿', '韭菜', '香蕉', '黄瓜'),然后基于TensorFlow库搭建CNN卷积神经网络算法模型,然后对数据集进行训练,最后得到一个识别精度较高的算法模型,然后将其保存为h5格式的本地文件方便后期调用。再使用Django框架搭建Web网页平台操作界面,实现用户上传一张果蔬图片识别其名称。
54 0
【果蔬识别系统】Python+卷积神经网络算法+人工智能+深度学习+计算机毕设项目+Django网页界面平台