Python 拥有丰富的生态系统,提供了众多的数据处理库和模块,可以满足从简单到复杂的各种需求。以下是 Python 中一些其他重要的数据处理库和模块:

1. SciPy

用途:科学计算

SciPy 是基于 NumPy 构建的一个库,主要用于科学和技术计算。它包含了大量的数学算法和函数,如优化、线性代数、积分、插值等。

示例:

  1. from scipy import optimize

  2. # 最小化一个简单的函数

  3. def f(x):

  4. return x**2 + 10 * np.sin(x)

  5. result = optimize.minimize(f, x0=0)

  6. print(result.x) # 输出: [-1.30644995]

2. Matplotlib 和 Seaborn

用途:数据可视化

Matplotlib 是最流行的 Python 绘图库之一,支持多种图表类型,包括折线图、柱状图、散点图等。

Seaborn 是建立在 Matplotlib 之上的高级接口,专注于统计数据可视化,简化了许多常见的绘图操作。

示例(Seaborn):

  1. import seaborn as sns

  2. import matplotlib.pyplot as plt

  3. tips = sns.load_dataset("tips")

  4. sns.scatterplot(x="total_bill", y="tip", data=tips)

  5. plt.show()

3. Plotly

用途:交互式数据可视化

Plotly 提供了创建交互式图表的能力,适用于 Web 应用程序。它支持多种图形类型,并且易于与 Pandas 集成。

示例:

  1. import plotly.express as px

  2. df = px.data.iris()

  3. fig = px.scatter(df, x="sepal_width", y="sepal_length", color="species")

  4. fig.show()

4. Scikit-learn

用途:机器学习

Scikit-learn 是一个强大的机器学习库,实现了广泛的监督和非监督学习算法。它还提供了数据预处理、模型选择和评估等功能。

示例:

  1. from sklearn.datasets import load_iris

  2. from sklearn.model_selection import train_test_split

  3. from sklearn.neighbors import KNeighborsClassifier

  4. iris = load_iris()

  5. X_train, X_test, y_train, y_test = train_test_split(iris.data, iris.target, test_size=0.2)

  6. clf = KNeighborsClassifier()

  7. clf.fit(X_train, y_train)

  8. print(clf.score(X_test, y_test)) # 输出分类准确率

5. TensorFlow 和 PyTorch

用途:深度学习

TensorFlow 和 PyTorch 是两个领先的深度学习框架,分别由 Google 和 Facebook 开发。它们为构建神经网络提供了高度灵活的 API,并且可以在 GPU 上加速训练过程。

示例(TensorFlow):

  1. import tensorflow as tf

  2. mnist = tf.keras.datasets.mnist

  3. (x_train, y_train), (x_test, y_test) = mnist.load_data()

  4. x_train, x_test = x_train / 255.0, x_test / 255.0

  5. model = tf.keras.models.Sequential([

  6. tf.keras.layers.Flatten(input_shape=(28, 28)),

  7. tf.keras.layers.Dense(128, activation='relu'),

  8. tf.keras.layers.Dropout(0.2),

  9. tf.keras.layers.Dense(10)

  10. ])

  11. model.compile(optimizer='adam',

  12. loss=tf.keras.losses.SparseCategoricalCrossentropy(from_logits=True),

  13. metrics=['accuracy'])

  14. model.fit(x_train, y_train, epochs=5)

6. NLTK 和 spaCy

用途:自然语言处理(NLP)

NLTK(Natural Language Toolkit)是一个用于文本分析的经典库,涵盖了分词、词性标注、句法解析等多个方面。

spaCy 是一个更现代化的 NLP 库,注重速度和效率,特别适合生产环境中的应用。

示例(spaCy):

  1. import spacy

  2. nlp = spacy.load("en_core_web_sm")

  3. doc = nlp("Apple is looking at buying U.K. startup for $1 billion")

  4. for ent in doc.ents:

  5. print(ent.text, ent.label_)

  6. # 输出: Apple ORG, U.K. GPE, $1 billion MONEY

7. Beautiful Soup 和 Scrapy

用途:Web 数据抓取

Beautiful Soup 是一个用于解析 HTML 和 XML 文档的库,常用于网页内容提取。

Scrapy 是一个完整的 Web 爬虫框架,支持异步请求、自动遵循 robots.txt 规则等功能。

示例(Beautiful Soup):

  1. from bs4 import BeautifulSoup

  2. import requests

  3. response = requests.get('https://example.com')

  4. soup = BeautifulSoup(response.text, 'html.parser')

  5. for title in soup.find_all('title'):

  6. print(title.string)

8. OpenPyXL 和 XlsxWriter

用途:Excel 文件读写

OpenPyXL 主要用于读取和写入 .xlsx 文件,而 XlsxWriter 则专注于创建新的 Excel 文件,特别是当您需要生成复杂的表格格式时非常有用。

示例(OpenPyXL):

  1. import openpyxl

  2. wb = openpyxl.load_workbook('example.xlsx')

  3. sheet = wb.active

  4. for row in sheet.iter_rows(values_only=True):

  5. print(row)

9. Feather 和 Parquet

用途:高效的数据存储格式

Feather 和 Parquet 是两种高效的列式存储格式,专为快速读取和写入大数据集设计。它们支持跨语言互操作性,并且与 Pandas 兼容。

示例(Parquet with PyArrow):

  1. import pandas as pd

  2. import pyarrow.parquet as pq

  3. df = pd.DataFrame({'one': [1, 2, 3], 'two': ['a', 'b', 'c']})

  4. df.to_parquet('example.parquet')

  5. table = pq.read_table('example.parquet')

  6. print(table.to_pandas())

10. SQLAlchemy

用途:数据库 ORM

SQLAlchemy 是一个 SQL 工具包和对象关系映射器(ORM),允许您以面向对象的方式与关系型数据库交互。它支持多种数据库后端,并提供了灵活的查询构造器。

示例:

  1. from sqlalchemy import create_engine, Column, Integer, String, ForeignKey

  2. from sqlalchemy.ext.declarative import declarative_base

  3. from sqlalchemy.orm import sessionmaker

  4. Base = declarative_base()

  5. class User(Base):

  6. __tablename__ = 'users'

  7. id = Column(Integer, primary_key=True)

  8. name = Column(String)

  9. engine = create_engine('sqlite:///:memory:')

  10. Base.metadata.create_all(engine)

  11. Session = sessionmaker(bind=engine)

  12. session = Session()

  13. new_user = User(name='Alice')

  14. session.add(new_user)

  15. session.commit()

  16. users = session.query(User).all()

  17. for user in users:

  18. print(user.name)

总结

这些库和模块覆盖了从基础的数据处理到高级分析和可视化的各个方面。根据您的具体需求选择合适的工具,可以帮助您更高效地完成任务并提高代码质量。随着经验的增长,您将逐渐熟悉每个库的最佳实践及其适用场景。希望这些建议能帮助您找到最适合您项目的解决方案!

最后作为一位过来人也是希望大家少走一些弯路,如果你不想再体验一次学习时找不到资料,没人解答问题,坚持几天便放弃的感受的话,在这里我给大家分享一些软件测试的学习资源,希望能给你前进的路上带来帮助。

视频文档获取方式:
这份文档和视频资料,对于想从事【软件测试】的朋友来说应该是最全面最完整的备战仓库,这个仓库也陪伴我走过了最艰难的路程,希望也能帮助到你!以上均可以分享,点下方小卡片即可自行领取。

Logo

开源鸿蒙跨平台开发社区汇聚开发者与厂商,共建“一次开发,多端部署”的开源生态,致力于降低跨端开发门槛,推动万物智联创新。

更多推荐