python中常用的模块库整理

  • Post category:Python

Python中常用的模块库非常多,这里我为大家整理了一些常用的模块库以及它们提供的功能,希望对大家有所帮助。

系统模块库

os模块

os模块提供了许多与操作系统交互的函数,使用它可以实现文件的创建、读取和删除等操作。同时也可以获取系统相关的信息,比如环境变量、当前工作目录等。

以下是os模块的一些常用操作:

import os

# 获取当前工作目录
print(os.getcwd()) 

# 切换当前工作目录
os.chdir('/Users/')  

# 创建文件夹
os.mkdir('test')  

# 创建多级目录
os.mkdirs('test1/test2')

# 删除文件或目录
os.remove('/Users/test.txt')
os.rmdir('/Users/test')
os.removedirs('test1/test2')

sys模块

sys模块主要用于解释器与Python环境的相关操作,它可以对模块、文件进行操作,还可以获取脚本的命令行参数等。

以下是sys模块的一些常用操作:

import sys

# 获取命令行参数列表
print(sys.argv) 

# 强制退出程序
sys.exit()

# 获取当前模块对象
print(sys.modules[__name__]) 

# 获取Python解释器的版本信息
print(sys.version)

数据处理模块库

NumPy模块

NumPy是Python中最常用的数据处理库之一,它提供了强大的多维数组对象和各种相关函数。NumPy的数组可以用于存放整数、浮点数等数据类型,支持各种基本操作,如数组索引、切片、运算等。

以下是NumPy模块的一些常用操作:

import numpy as np

# 创建一维数组
arr1 = np.array([1, 2, 3])

# 创建二维数组
arr2 = np.array([[1, 2, 3], [4, 5, 6]])

# 数组形状
print(arr2.shape)  

# 数组维度
print(arr2.ndim)

# 数组元素类型
print(arr2.dtype)

# 数组元素个数
print(arr2.size)

# 数组转置
print(arr2.T)

Pandas模块

Pandas是Python中最常用的数据处理和分析库之一,它提供了Series(类似于一维数组)和DataFrame(类似于二维表格)两个主要的数据结构。Pandas可以用于数据的读取、清洗、处理和分析等操作。

以下是Pandas模块的一些常用操作:

import pandas as pd

# 读取CSV文件
df = pd.read_csv('data.csv')

# 显示前几行数据
print(df.head())

# 显示数据类型
print(df.dtypes)

# 显示数据统计信息
print(df.describe())

# 根据条件过滤数据
filtered_data = df[df['age'] > 30]

# 计算群体平均值
grouped_data = df.groupby('gender').mean()

文本处理模块库

re模块

re模块是Python中用于正则表达式匹配的模块,可以用于字符串的搜索、替换、分割等操作。正则表达式是一种强大的模式匹配语言,可以用来描述和匹配各种文本模式。

以下是re模块的一些常用操作:

import re

# 正则表达式匹配
pattern = r'\d+'
text = '123 abc 456 def'
match = re.findall(pattern, text)
print(match)

# 正则表达式替换
pattern = r'(\d{3})-(\d{3})-(\d{4})'
text = 'John Smith: 123-456-7890'
replaced_text = re.sub(pattern, r'(\1) \2-\3', text)
print(replaced_text)

NLTK模块

NLTK(Natural Language Toolkit)是Python中常用的自然语言处理工具包,支持文本处理、文本分类、机器翻译等多种自然语言处理任务。NLTK提供了许多语料库和算法,可以快速实现各种自然语言处理应用。

以下是NLTK模块的一些常用操作:

import nltk

# 分词
text = "This is a sentence."
tokens = nltk.word_tokenize(text)
print(tokens)

# 去除标点符号和停用词
from nltk.corpus import stopwords
stop_words = set(stopwords.words('english'))
tokens = [word for word in tokens if not word in stop_words and word.isalpha()]
print(tokens)

# 词形还原
from nltk.stem import WordNetLemmatizer
lemmatizer = WordNetLemmatizer()
tokens = [lemmatizer.lemmatize(word) for word in tokens]
print(tokens)