python的Socket网络编程 使用模板

简介: 相关说明本文给出的是TCP协议的Socket编程。其中用了一个dbmanager数据库操作模块,这个模块是我自己定义的,可以在我的另一个文章中找到这个模块的分享。

相关说明

本文给出的是TCP协议的Socket编程。

其中用了一个dbmanager数据库操作模块,这个模块是我自己定义的,可以在我的另一个文章中找到这个模块的分享。python操作mysql数据库的精美实用模块

服务段完整代码

【如下代码,完全复制,直接运行,即可使用】

import socket
import threading
import json
from tools import dbmanager    #这个模块是我自定义的,可以在我的另一个文章中找到这个模块的分享
###################################
####服务器参数
####################################

HOST = '0.0.0.0'            #ip 0.0.0.0 表示本机所有ip地址
PORT = 9905                 #端口号
Max_Listen =10              #最大监听数
BUFSIZ = 1024               #每次接收数据长度
ENDMARK = "messageover"     #信息结束标记



####################################
####业务处理函数
####################################
def searchuser(sock, dict_data):
    the_searchstring = dict_data['par']
    #########构造sql语句
    sqlstring0 = "SELECT * FROM hr_user WHERE id>0 "

    if the_searchstring != None and the_searchstring != "":
        sqlstring0 = sqlstring0 + " AND (username LIKE '%" + the_searchstring + "%')"

    ########执行数据库查询
    data0 = dbmanager.executeSelectAllback(sqlstring0)
    if data0 == False:
        message = {'action': 'Error_SqlConnet'}
        sock.sendall(json.dumps(message).encode("utf-8"))    ####发送数据给客户端
        return
    if data0 != None:
        message = {'action': 'SearchUser_Success'}
        message['data'] = data0
        sock.sendall(json.dumps(message).encode("utf-8"))    ####发送数据给客户端
        return



####################################
####线程处理函数
####################################
def readRequest(sock, addr):
    print('Accept new connection from %s:%s...' % addr)
    allresponse = ""
    while True:
        ########接收数据
        data = sock.recv(BUFSIZ).decode('utf-8')
        if len(data):
            allresponse = allresponse + data
            if ENDMARK not in allresponse:
                continue
        if allresponse == "":
            break


        ########处理数据
        allresponse =allresponse[:-len(ENDMARK)]
        dict_data = json.loads(allresponse)
        action = dict_data['action']
        if action == "SearchUser":
            searchuser(sock, dict_data)  #业务处理
            break
        elif action == "SearchCompany":
            break                        #业务处理
        else:
            break


    ########关闭连接
    sock.close()
    print('Connection from %s:%s closed.' % addr)








####################################
#程序入口
####################################
if __name__ == "__main__":
    #####创建一个socket
    the_socket = socket.socket(socket.AF_INET, socket.SOCK_STREAM)  # AF_INET指定使用IPv4协议  #SOCK_STREAM指定使用面向流的TCP协议

    #####绑定端口
    the_socket.bind((HOST, PORT))

    #####监听端口
    the_socket.listen(Max_Listen)

    print('Waiting for connection...')

    while True:
        # 接受一个新连接
        sock, addr = the_socket.accept()

        # 创建新线程来处理TCP连接
        the_thread = threading.Thread(target=readRequest, args=(sock, addr))
        the_thread.start()
    ####################################

客户端完整代码

【如下代码,完全复制,直接运行,即可使用】

import socket
import json

#############################################################################################
####参数
#############################################################################################
HOST = '127.0.0.1'
PORT = 9905
BUFSIZ = 1024
ENDMARK = "messageover"



#############################################################################################
#######请求处理函数
#############################################################################################
def issueRequest(action, par):
    # 创建一个socket
    the_socket = socket.socket(socket.AF_INET, socket.SOCK_STREAM)

    # 建立连接:
    try:
        the_socket.connect((HOST, PORT))
    except:
        print("服务器连接失败!")
        return

    #############################
    try:
        ########发送数据:
        message = {}
        message['action'] = action
        message['par'] = par
        last_message = json.dumps(message) + ENDMARK  # son.dumps()将 Python 对象编码成 JSON 字符串
        print(message)
        the_socket.sendall(last_message.encode("utf-8"))

        ########接收数据
        allresponse = ""
        while True:
            response = the_socket.recv(BUFSIZ).decode('utf-8')
            if len(response):
                allresponse = allresponse + response
                continue
            if allresponse == "":
                break

            #######处理数据
            dict_data = json.loads(allresponse)  # json.loads()将已编码的 JSON 字符串解码为 Python 对象
            action = dict_data['action']
            if action == "SearchUser_Success":
                data0 = dict_data['data']
                print(data0)
                break
            elif action == "Error_SqlConnet":
                print("数据查询失败!")
                break
            else:
                break
    except:
        print("服务器连接异常,数据查询失败!")
    finally:
        #######关闭连接
        the_socket.close()



####################################
#程序入口
####################################
if __name__ == "__main__":
    the_searchstring ="张三"
    issueRequest("SearchUser", the_searchstring)

本文如有帮助,敬请留言鼓励。
本文如有错误,敬请留言改进。

目录
相关文章
|
9天前
|
Python
Python中的异步编程:使用asyncio和aiohttp实现高效网络请求
【10月更文挑战第34天】在Python的世界里,异步编程是提高效率的利器。本文将带你了解如何使用asyncio和aiohttp库来编写高效的网络请求代码。我们将通过一个简单的示例来展示如何利用这些工具来并发地处理多个网络请求,从而提高程序的整体性能。准备好让你的Python代码飞起来吧!
25 2
|
16天前
|
数据采集 存储 JSON
Python网络爬虫:Scrapy框架的实战应用与技巧分享
【10月更文挑战第27天】本文介绍了Python网络爬虫Scrapy框架的实战应用与技巧。首先讲解了如何创建Scrapy项目、定义爬虫、处理JSON响应、设置User-Agent和代理,以及存储爬取的数据。通过具体示例,帮助读者掌握Scrapy的核心功能和使用方法,提升数据采集效率。
60 6
|
4天前
|
机器学习/深度学习 人工智能 算法
基于Python深度学习的【垃圾识别系统】实现~TensorFlow+人工智能+算法网络
垃圾识别分类系统。本系统采用Python作为主要编程语言,通过收集了5种常见的垃圾数据集('塑料', '玻璃', '纸张', '纸板', '金属'),然后基于TensorFlow搭建卷积神经网络算法模型,通过对图像数据集进行多轮迭代训练,最后得到一个识别精度较高的模型文件。然后使用Django搭建Web网页端可视化操作界面,实现用户在网页端上传一张垃圾图片识别其名称。
25 0
基于Python深度学习的【垃圾识别系统】实现~TensorFlow+人工智能+算法网络
|
9天前
|
机器学习/深度学习 TensorFlow 算法框架/工具
利用Python和TensorFlow构建简单神经网络进行图像分类
利用Python和TensorFlow构建简单神经网络进行图像分类
28 3
|
14天前
|
数据采集 存储 XML
Python实现网络爬虫自动化:从基础到实践
本文将介绍如何使用Python编写网络爬虫,从最基础的请求与解析,到自动化爬取并处理复杂数据。我们将通过实例展示如何抓取网页内容、解析数据、处理图片文件等常用爬虫任务。
|
17天前
|
数据采集 前端开发 中间件
Python网络爬虫:Scrapy框架的实战应用与技巧分享
【10月更文挑战第26天】Python是一种强大的编程语言,在数据抓取和网络爬虫领域应用广泛。Scrapy作为高效灵活的爬虫框架,为开发者提供了强大的工具集。本文通过实战案例,详细解析Scrapy框架的应用与技巧,并附上示例代码。文章介绍了Scrapy的基本概念、创建项目、编写简单爬虫、高级特性和技巧等内容。
39 4
|
17天前
|
网络协议 物联网 API
Python网络编程:Twisted框架的异步IO处理与实战
【10月更文挑战第26天】Python 是一门功能强大且易于学习的编程语言,Twisted 框架以其事件驱动和异步IO处理能力,在网络编程领域独树一帜。本文深入探讨 Twisted 的异步IO机制,并通过实战示例展示其强大功能。示例包括创建简单HTTP服务器,展示如何高效处理大量并发连接。
39 1
|
18天前
|
数据采集 存储 机器学习/深度学习
构建高效的Python网络爬虫
【10月更文挑战第25天】本文将引导你通过Python编程语言实现一个高效网络爬虫。我们将从基础的爬虫概念出发,逐步讲解如何利用Python强大的库和框架来爬取、解析网页数据,以及存储和管理这些数据。文章旨在为初学者提供一个清晰的爬虫开发路径,同时为有经验的开发者提供一些高级技巧。
13 1
|
20天前
|
Kubernetes 网络协议 Python
Python网络编程:从Socket到Web应用
在信息时代,网络编程是软件开发的重要组成部分。Python作为多用途编程语言,提供了从Socket编程到Web应用开发的强大支持。本文将从基础的Socket编程入手,逐步深入到复杂的Web应用开发,涵盖Flask、Django等框架的应用,以及异步Web编程和微服务架构。通过本文,读者将全面了解Python在网络编程领域的应用。
20 1
|
21天前
|
机器学习/深度学习 人工智能 算法
【车辆车型识别】Python+卷积神经网络算法+深度学习+人工智能+TensorFlow+算法模型
车辆车型识别,使用Python作为主要编程语言,通过收集多种车辆车型图像数据集,然后基于TensorFlow搭建卷积网络算法模型,并对数据集进行训练,最后得到一个识别精度较高的模型文件。再基于Django搭建web网页端操作界面,实现用户上传一张车辆图片识别其类型。
65 0
【车辆车型识别】Python+卷积神经网络算法+深度学习+人工智能+TensorFlow+算法模型