【源码解析】深入Pandas的心脏DataFrame 含十大功能、源码实现与编程知识点

本文涉及的产品
数据管理 DMS,安全协同 3个实例 3个月
推荐场景:
学生管理系统数据库
全局流量管理 GTM,标准版 1个月
云解析 DNS,旗舰版 1个月
简介: 【源码解析】深入Pandas的心脏DataFrame 含十大功能、源码实现与编程知识点

作者介绍:10年大厂数据\经营分析经验,现任大厂数据部门负责人。

会一些的技术:数据分析、算法、SQL、大数据相关、python

欢迎加入社区:码上找工作

作者专栏每日更新:

LeetCode解锁1000题: 打怪升级之旅

python数据分析可视化:企业实战案例

python源码解读

程序员必备的数学知识与应用

备注说明:方便大家阅读,统一使用python,带必要注释,公众号 数据分析螺丝钉 一起打怪升级


探索Pandas的心脏—— DataFrame

引言

Pandas 的 DataFrame 是现代数据科学工具箱中的一块基石,提供了强大且灵活的数据结构来支持各种复杂的数据操作。作为 Python 最受欢迎的数据处理库之一,Pandas 通过 DataFrame 类实现了一个功能丰富的两维数据表格。这个表格不仅能够处理尺寸可变的异质类型数据,还包含了标签化的轴(行和列),使得数据操作既直观又便捷。

DataFrame源码 在pandas/core/frame.py里 整个 类代码超过1万行,里面包括注释与实现代码,为方便读者阅读我们把文章按两个部分进行说明,先从使用上从功能说明,再看源码如何实现,对核心方法进行解读,如果有错误的地方欢迎指正 谢谢大家

DataFrame 概览

接下来,我们将深入探讨 DataFrame 类中几个关键方法的作用、示例和对应的输出结果,方便更清晰地理解每个方法的实际应用和功能。

1. 构造函数 __init__

功能说明

用于创建一个新的 DataFrame 对象。

示例

import pandas as pd
# 创建 DataFrame 使用字典
data = {'col1': [1, 2], 'col2': [3, 4]}
df = pd.DataFrame(data)
print(df)

输出

col1  col2
0     1     3
1     2     4

源码说明

Pandas 的 DataFrame 构造函数 __init__ 是一个典型的示例,展示了如何在日常编程中处理多源数据输入、类型检测、条件判断以及数据管理。代码中广泛使用了 if-else 语句来根据不同的数据类型和条件执行不同的逻辑。这种模式非常适用于处理具有多种输入可能性的函数。

  • 类型检测:通过 isinstance() 检查数据类型,根据数据类型的不同选择不同的处理流程。
  • 参数默认值的智能处理:根据输入数据的类型和是否已指定某些参数来动态设置默认值。

知识点 按需import

可以看到在616行有一个 import,这里的import放在了elif里面可以减少程序启动的时间,减少不必要的依赖和循环引用,只有在特定条件下才会被触发,在一些大型项目中能有效减少常规操作的开销

源码逐行解析

def __init__(
        self,
        data=None,
        index: Axes | None = None,
        columns: Axes | None = None,
        dtype: Dtype | None = None,
        copy: bool | None = None,
    ):
        # 根据数据类型确定是否需要复制数据,默认情况下,字典和未指定数据源的情况下复制
        if copy is None:
            if isinstance(data, dict) or data is None:
                copy = True
            else:
                copy = False
        # 如果未提供数据,则初始化为空字典
        if data is None:
            data = {}
        # 如果指定了dtype,则验证和转换数据类型
        if dtype is not None:
            dtype = self._validate_dtype(dtype)
        # 如果数据已经是DataFrame类型,直接使用其内部管理器
        if isinstance(data, DataFrame):
            data = data._mgr
        # 如果数据是管理器类型(BlockManager或ArrayManager)
        if isinstance(data, (BlockManager, ArrayManager)):
            if index is None and columns is None and dtype is None and not copy:
                NDFrame.__init__(self, data)
                return
        # 根据设置决定使用哪种数据管理器
        manager = get_option("mode.data_manager")
        # 初始化数据管理器
        if isinstance(data, (BlockManager, ArrayManager)):
            mgr = self._init_mgr(
                data, axes={"index": index, "columns": columns}, dtype=dtype, copy=copy
            )
        # 如果数据是字典类型
        elif isinstance(data, dict):
            mgr = dict_to_mgr(data, index, columns, dtype=dtype, copy=copy, typ=manager)
        # 如果数据是遮盖数组(MaskedArray)
        elif isinstance(data, ma.MaskedArray):
            import numpy.ma.mrecords as mrecords
            if isinstance(data, mrecords.MaskedRecords):
                mgr = rec_array_to_mgr(
                    data, index, columns, dtype, copy, typ=manager,
                )
                warnings.warn(
                    "Support for MaskedRecords is deprecated and will be removed in a future version.  Pass {name: data[name] for name in data.dtype.names} instead.",
                    FutureWarning,
                    stacklevel=2,
                )
            else:
                data = sanitize_masked_array(data)
                mgr = ndarray_to_mgr(
                    data, index, columns, dtype=dtype, copy=copy, typ=manager,
                )
        # 如果数据是 NumPy 数组、Series 或 Index
        elif isinstance(data, (np.ndarray, Series, Index)):
            if data.dtype.names:
                data = cast(np.ndarray, data)
                mgr = rec_array_to_mgr(
                    data, index, columns, dtype, copy, typ=manager,
                )
            elif getattr(data, "name", None) is not None:
                mgr = dict_to_mgr(
                    {data.name: data}, index, columns, dtype=dtype, typ=manager,
                )
            else:
                mgr = ndarray_to_mgr(
                    data, index, columns, dtype=dtype, copy=copy, typ=manager,
                )
        # 如果数据是列表或其他可迭代对象
        elif is_list_like(data):
            if not isinstance(data, (abc.Sequence, ExtensionArray)):
                data = list(data)
            if len(data) > 0:
                if is_dataclass(data[0]):
                    data = dataclasses_to_dicts(data)
                if treat_as_nested(data):
                    if columns is not None:
                        columns = ensure_index(columns)
                    arrays, columns, index = nested_data_to_arrays(
                        data, columns, index, dtype,
                    )
                    mgr = arrays_to_mgr(
                        arrays, columns, index, columns, dtype=dtype, typ=manager,
                    )
                else:
                    mgr = ndarray_to_mgr(
                        data, index, columns, dtype=dtype, copy=copy, typ=manager,
                    )
            else:
                mgr = dict_to_mgr(
                    {}, index, columns, dtype=dtype, typ=manager,
                )
        # 如果数据是标量
        else:
            if index is None or columns is None:
                raise ValueError("DataFrame constructor not properly called!")
            index = ensure_index(index)
            columns = ensure_index(columns)
            if not dtype:
                dtype, _ = infer_dtype_from_scalar(data, pandas_dtype=True)
            if isinstance(dtype, ExtensionDtype):
                values = [
                    construct_1d_arraylike_from_scalar(data, len(index), dtype)
                    for _ in range(len(columns))
                ]
                mgr = arrays_to_mgr(
                    values, columns, index, columns, dtype=None, typ=manager
                )
            else:
                arr2d = construct_2d_arraylike_from_scalar(
                    data, len(index), len(columns), dtype, copy,
                )
                mgr = ndarray_to_mgr(
                    arr2d, index, columns, dtype=arr2d.dtype, copy=False, typ=manager,
                )
        # 确保使用正确的数据管理器类型
        mgr = mgr_to_mgr(mgr, typ=manager)
        NDFrame.__init__(self, mgr)

2. 数据访问 __getitem__

功能说明

通过列名访问数据。

示例

# 访问列 'col1'
print(df['col1'])

输出

0    1
1    2
Name: col1, dtype: int64

源码说明

__getitem__ 方法

这是一个非常核心的函数,用于索引和选择数据。这个方法支持多种类型的键(key),处理逻辑相对复杂。我们逐行解析,补充每行代码的功能和作用的注释。

知识点 数组转切片

使用 lib.maybe_indices_to_slice

这个方法是理解 Pandas 数据获取逻辑的一个很好的例子,展示了在实际项目中如何处理复杂和多变的数据访问需求。在 Pandas 的源代码中,lib.maybe_indices_to_slice 函数是一个优化函数,其目的是尝试将一个整数数组转换成一个更为高效的切片对象(slice 对象)。这种转换在处理大型数据集时尤其有用,因为使用切片通常比使用等价的整数数组索引具有更高的性能。

为什么使用切片比整数数组索引更高效?

切片操作只需要定义起点、终点和步长,无论数据集有多大,切片描述的复杂性都不增加,Python 也可以优化这些操作。相反,整数数组索引需要存储每个索引点,其内存消耗和处理时间与索引数量直接相关,尤其是在大数据集上进行随机访问时。

功能解释

lib.maybe_indices_to_slice 函数的工作原理是检查提供的整数数组是否可以表示为一个简单的切片。如果可以,函数将返回一个对应的 slice 对象;如果不可以,函数将返回原始数组。这个检查基于以下几点:

  1. 连续性:数组中的值是否形成一个连续的序列,即每两个相邻值的差是常数。
  2. 边界:序列的起始和结束点必须明确。

具体应用

在 DataFrame 的 __getitem__ 方法中使用这个函数可以提高数据选择的效率。例如,如果你想选择 DataFrame 中的第 100 到第 200 行,理论上直接使用 df[100:201](使用切片)要比 df[list(range(100, 201))](使用整数数组)更有效率。lib.maybe_indices_to_slice 是一个用于优化数据索引的工具,尤其在处理大型数据集和需要频繁数据访问的应用中非常有用。理解这个函数的工作原理可以帮助开发者编写更高效、更可扩展的 Pandas 应用。

源码逐行解析

def __getitem__(self, key):
        key = lib.item_from_zerodim(key)  # 处理零维数组,转换成标量
        key = com.apply_if_callable(key, self)  # 如果key是可调用的,则传递self
        if is_hashable(key):  # 检查key是否可以哈希,即是否可以作为字典的键
            if self.columns.is_unique and key in self.columns:  # 如果列名是唯一的并且key在列名中
                if isinstance(self.columns, MultiIndex):  # 如果列是多级索引
                    return self._getitem_multilevel(key)  # 使用多级索引获取项
                return self._get_item_cache(key)  # 使用缓存获取项
        # 尝试将key转换为可以索引的切片对象
        indexer = convert_to_index_sliceable(self, key)
        if indexer is not None:
            if isinstance(indexer, np.ndarray):  # 如果索引器是ndarray
                indexer = lib.maybe_indices_to_slice(
                    indexer.astype(np.intp, copy=False), len(self)  # 尝试将索引转换为切片
                )
                if isinstance(indexer, np.ndarray):
                    return self.take(indexer, axis=0)  # 使用ndarray索引取数据
            return self._slice(indexer, axis=0)  # 使用切片或部分字符串日期索引获取数据
        if isinstance(key, DataFrame):  # 如果key是DataFrame
            return self.where(key)  # 返回布尔索引DataFrame
        if com.is_bool_indexer(key):  # 如果key是布尔索引
            return self._getitem_bool_array(key)  # 使用布尔数组获取项
        # 解释元组作为键的集合,仅对非多级索引的情况
        is_single_key = isinstance(key, tuple) or not is_list_like(key)
        if is_single_key:
            if self.columns.nlevels > 1:
                return self._getitem_multilevel(key)  # 对多级索引使用键
            indexer = self.columns.get_loc(key)  # 获取键的位置
            if is_integer(indexer):  # 如果位置是整数
                indexer = [indexer]  # 转换为列表
        else:
            if is_iterator(key):  # 如果键是迭代器
                key = list(key)  # 转换为列表
            indexer = self.loc._get_listlike_indexer(key, axis=1)[1]  # 获取类似列表的索引器
        if getattr(indexer, "dtype", None) == bool:
            indexer = np.where(indexer)[0]  # 获取布尔索引的位置
        data = self._take_with_is_copy(indexer, axis=1)  # 根据索引器取数据
        if is_single_key:
            if data.shape[1] == 1 and not isinstance(self.columns, MultiIndex):
                return data._get_item_cache(key)  # 如果是单个键,则尝试从缓存获取
        return data  # 返回索引得到的数据

从这段代码能学习到什么?

  1. 灵活的索引支持:这段代码展示了如何支持从简单的列名到复杂的布尔索引和多级索引等多种索引方式。
  2. 类型检查与转换:代码中频繁进行类型检查和转换,这是处理不确定输入时的常见做法。
  3. 错误和特殊情况的处理:方法中包含了对错误情况的预判和处理,如输入类型的验证和转换。
  4. 代码的模块化:通过调用 _getitem_multilevel、_get_item_cache、_slice 等方法,代码避免了冗长和重复,提高了可读性和可维护性。

3. 数据设置 __setitem__

功能说明

通过列名设置列数据。

示例

# 添加新列 'col3'
df['col3'] = [5, 6]
print(df)

输出

col1  col2  col3
0     1     3     5
1     2     4     6

源码说明

这段代码是 Pandas DataFrame__setitem__ 方法,负责处理对 DataFrame 对象的索引赋值操作。这个方法支持多种数据类型作为键(key)和值(value),其复杂性体现在如何正确地将值分配到指定的键。下面是对该方法的逐行解析,包括补充的注释,解释每行代码的功能和作用。

知识点 处理重复列名

虽然我们能够通过 iloc 正确地更新重复列名的数据,但在实际应用中,最好避免在 DataFrame 中使用重复的列名,因为这会导致数据操作的复杂性显著增加,并增加出错的风险。如果可能,应该在数据处理的早期阶段清理或修改列名,确保每个列名的唯一性。

在第3604行开始 是对列名的判断,可以看到

elif (
    is_list_like(value)  # 如果value是列表或类似列表结构
    and not self.columns.is_unique  # 并且列名不唯一
    # key对应多列并且value的长度与之匹配
    and 1 < len(self.columns.get_indexer_for([key])) == len(value)  
):
    # 如果要设置的列名是重复的
    self._setitem_array([key], value)  
else:
    # 将列表形式的value赋值到重复的列名上 所有重复的都会被重新赋值
    self._set_item(key, value)

让我们通过一个具体的代码示例来展示如何在 DataFrame 中处理不唯一列名的情况。在这个例子中,我们将创建一个包含重复列名的 DataFrame,然后演示如何正确地更新其中的数据以维护数据一致性。

示例代码

假设我们有一个数据集,其中某些列的名字是重复的,现在我们需要更新这些列的数据会导致所有的所有这个列名的值。

import pandas as pd
import numpy as np
# 创建一个具有重复列名的DataFrame
data = {
    "A": [1, 2, 3],
    "B": [4, 5, 6],
    "A": [7, 8, 9]  # 重复的列名 "A"
}
df = pd.DataFrame(data)
print("Original DataFrame with duplicate column names:")
print(df)
# 尝试更新第二个 "A" 列的数据
try:
    # 这会引起歧义,因为有两个 "A" 列
    df['A'] = [10, 11, 12]
except Exception as e:
    print(f"Error: {e}")
print("\nDataFrame after attempting to update 'A':")
print(df)
# 正确的更新方法
# 我们先获取所有名为"A"的列的索引,然后指定要更新的列
columns = df.columns.get_loc("A")
df.iloc[:, columns] = [13, 14, 15]
print("\nDataFrame after correctly updating 'A' columns:")
print(df)

下图输入直接变更重复列名的值,被异常捕获了,虽然也能执行成功,但是应该尽量避免

源码逐行解析

def __setitem__(self, key, value):
        key = com.apply_if_callable(key, self)  # 如果key是可调用的,应用它并更新key
        # 尝试将key转换为可以对行进行切片的索引器
        indexer = convert_to_index_sliceable(self, key)
        if indexer is not None:
            # 如果indexer是一个切片或者可以转换为切片(例如部分字符串日期索引)
            return self._setitem_slice(indexer, value)  # 使用切片进行赋值
        # 如果key是DataFrame或者具有两个维度(ndim==2),例如二维数组
        if isinstance(key, DataFrame) or getattr(key, "ndim", None) == 2:
            self._setitem_frame(key, value)  # 使用DataFrame或二维结构设置多个值
        elif isinstance(key, (Series, np.ndarray, list, Index)):
            self._setitem_array(key, value)  # 如果key是一维数组或类似结构,使用数组方式赋值
        elif isinstance(value, DataFrame):
            self._set_item_frame_value(key, value)  # 如果value是DataFrame,按DataFrame赋值
        elif (
            is_list_like(value)  # 如果value是列表或类似列表结构
            and not self.columns.is_unique  # 并且列名不唯一
            and 1 < len(self.columns.get_indexer_for([key])) == len(value)  # key对应多列并且value的长度与之匹配
        ):
            # 如果要设置的列名是重复的
            self._setitem_array([key], value)  # 将列表形式的value赋值到重复的列名上
        else:
            # 最基本的情况,设置单一列
            self._set_item(key, value)  # 在DataFrame中设置单个列的值

从这段代码能学习到什么?

  1. 灵活的参数处理__setitem__ 方法展示了如何处理不同类型的键和值,这包括可调用对象、数据结构(如DataFrame和Series),以及标量值。这种多样性的处理能力是处理复杂数据结构时的一项重要技能。
  2. 条件逻辑的应用:该方法通过多个 if-elif 分支来确定如何处理不同的键和值类型。这种条件逻辑是编写能够应对多种情况的健壮代码的基础。
  3. 复杂的数据赋值逻辑:处理键值对赋值时,考虑了列名是否唯一、数据维度、以及数据类型等因素,展示了在复杂环境中如何安全地修改数据。
  4. 数据一致性的维护:在设置数据时考虑了列名的唯一性和数据的对齐问题,这是维护数据一致性和避免数据错误的关键环节。
  5. 错误和特殊情况的处理:通过对特殊情况的预判和处理,如列名重复或键值对不匹配的情况,增强了方法的健壮性。

4. 数据合并 merge

功能说明

执行类似数据库的表合并操作。

示例

df1 = pd.DataFrame({'key': ['K0', 'K1', 'K2'], 'A': ['A0', 'A1', 'A2']})
df2 = pd.DataFrame({'key': ['K0', 'K1', 'K2'], 'B': ['B0', 'B1', 'B2']})
# 合并 df1 和 df2
result = pd.merge(df1, df2, on='key')
print(result)

输出

key   A   B
0  K0  A0  B0
1  K1  A1  B1
2  K2  A2  B2

源码说明

merge方法本身并不执行合并逻辑,而是将所有参数及自身作为参数传递给另一个负责实际合并操作的函数。这种设计模式(委托)有助于保持代码的组织性和可维护性,尤其是在功能逻辑复杂或可能在多个地方被重用时

我们来看一下merge操作类源码,发现有很多内部的方法,这里做了一些标记,可以看到整体的结构按 输入、输出 - 功能 - 检验 来覆盖所有的方法。此外这里有单一职责原则(每个函数只做一件事情),以及封装(将复杂的逻辑封装在方法内部,对外提供简洁的接口)。通过学习这些方法,在自己的项目中实施类似的模式,提高代码的健壮性和可维护性。

在get_result中,使用 concatenate_block_managers 函数合并左右两侧的数据块管理器,这是合并过程中的核心操作,负责物理合并数据

知识点 列表推导式

列表推导式是 Python 中一个非常强大和表达丰富的特性,用于创建列表。这种方式可以将循环和条件判断结合在一起,生成列表,使得代码既简洁又高效。在 concatenate_block_managers 函数中使用的列表推导式是一个很好的例子,展示了如何在实际应用中利用这个特性。

concat_plans = [
    get_mgr_concatenation_plan(mgr, indexers) for mgr, indexers in mgrs_indexers
]

这里,concat_plans 通过遍历 mgrs_indexers 列表(每个元素都是一个包含 BlockManager 和索引器的元组)并对每个元素应用 get_mgr_concatenation_plan 函数来构建。

步骤分解

  1. 输入数据mgrs_indexers 是一个列表,每个元素都是一个元组,其中包含两个元素:mgr(一个 BlockManager 对象)和 indexers(一个字典,包含索引信息)。
  2. 循环和映射:这个列表推导式遍历 mgrs_indexers 列表中的每个元组。对于每个元组,它将元组中的两个元素分别赋给 mgrindexers
  3. 函数应用:对于每个 (mgr, indexers) 对,列表推导式调用 get_mgr_concatenation_plan 函数。这个函数的作用是基于提供的 BlockManager (mgr) 和索引字典 (indexers) 生成一个合并计划。
  4. 输出列表:列表推导式最终生成一个新的列表,该列表包含对每个 mgrs_indexers 元素应用 get_mgr_concatenation_plan 函数后的结果。这意味着每个输入元组都转换成了一个合并计划。

列表推导式的优点

  • 简洁性:列表推导式通过一行代码完成了循环遍历、元素处理和列表创建三个任务。
  • 可读性:对于熟悉 Python 的开发者来说,列表推导式提供了一种易于理解和直观的方式来表达复杂的逻辑。
  • 性能:在许多情况下,列表推导式比等效的传统循环实现更高效,因为它是优化过的 C 语言级别的实现。

使用场景

列表推导式适用于需要从一个列表或任何可迭代对象生成新列表的场景,特别是当生成逻辑包含应用函数、条件过滤等操作时。然而,当逻辑过于复杂或推导式变得难以阅读时,使用传统的循环可能更合适,以保持代码的可读性和维护性。

总的来说,列表推导式是 Python 程序员必备的工具,理解和掌握它可以大大提高编程效率和代码质量。在处理数据处理和转换任务时,它尤其有用,如在数据科学、机器学习等领域。

源码逐行解析

下面是 concatenate_block_managers 函数的逐行解析,包括每行代码的作用和相关注释:

def concatenate_block_managers(mgrs_indexers, axes, concat_axis, copy):
    """
    Concatenate block managers into one.
    Parameters
    ----------
    mgrs_indexers : list of (BlockManager, {axis: indexer,...}) tuples
    axes : list of Index
    concat_axis : int
    copy : bool
    """
    # 创建合并计划,每个元素代表一个BlockManager的合并策略
    concat_plans = [
        get_mgr_concatenation_plan(mgr, indexers) for mgr, indexers in mgrs_indexers
    ]  # 列表推导:对每个BlockManager及其索引器生成合并计划
    # 组合所有的合并计划为一个总的合并计划
    concat_plan = combine_concat_plans(concat_plans, concat_axis)  # 将多个合并计划合成一个统一计划
    # 初始化存储最终合并生成的数据块列表
    blocks = []  # 数据块列表,存储最终合并后的各个数据块
    # 遍历合并计划中的所有放置位置和参与单位
    for placement, join_units in concat_plan:
        # 如果只有一个参与单位并且没有索引器
        if len(join_units) == 1 and not join_units[0].indexers:
            b = join_units[0].block  # 获取单个数据块
            values = b.values  # 获取数据块的值
            if copy:
                values = values.copy()  # 如果需要复制,进行深复制
            elif not copy:
                values = values.view()  # 如果不复制,创建一个视图
            b = b.make_block_same_class(values, placement=placement)  # 创建同类的新数据块
        # 如果所有参与单位都是相同类型
        elif is_uniform_join_units(join_units):
            b = join_units[0].block.concat_same_type(
                [ju.block for ju in join_units], placement=placement  # 连接相同类型的数据块
            )
        else:
            # 使用参与单位的数据块创建一个新的数据块
            b = make_block(
                concatenate_join_units(join_units, concat_axis, copy=copy),  # 连接参与单位
                placement=placement,  # 设置数据块的放置位置
            )
        # 将创建的新数据块添加到blocks列表中
        blocks.append(b)  # 向数据块列表中添加新数据块
    # 创建并返回一个新的BlockManager,管理所有合并后的数据块
    return BlockManager(blocks, axes)  # 使用合并后的数据块和轴创建一个新的BlockManager

5. 分组 groupby

功能说明

按条件分组数据,并支持聚合、变换、过滤。

示例

df = pd.DataFrame({
    'Animal': ['Falcon', 'Falcon', 'Parrot', 'Parrot'],
    'Max Speed': [380., 370., 24., 26.]
})
# 按 'Animal' 列分组并获取最大速度的平均值
mean_speed = df.groupby('Animal')['Max Speed'].mean()
print(mean_speed)

输出

Animal
Falcon    375.0
Parrot     25.0
Name: Max Speed, dtype: float64

知识点 继承父类

这段是聚合函数,使用了super对父类进行调用

在 Pandas 的源码中,DataFrameGroupBy 类通常继承自 GroupBy 类。GroupBy 类提供了广泛的分组操作的基本功能,包括聚合、过滤、转换和应用(apply)等方法。DataFrameGroupBy 是这些功能的一个具体实现,专门用于处理 DataFrame 对象。

  • GroupBy: 这是一个更一般的基类,提供了大多数分组操作的实现。它定义了分组操作的通用逻辑,如何聚集数据、如何应用函数等。
  • DataFrameGroupBy: 这个类继承自 GroupBy,专门针对 DataFrame 对象。它可能会添加或重写一些方法以适应 DataFrame 的特定需求,但大部分功能仍然依赖于 GroupBy 类提供的实现。

职责与功能:

  • GroupBy 的主要职责是提供一个高效的接口来处理所有 Pandas 对象(如 SeriesDataFrame)的分组操作。它处理数据的分割,应用组函数,然后可能将结果合并回一个合适的数据结构中。
  • DataFrameGroupBy 继承了 GroupBy 的所有功能,并且针对 DataFrame 的特定情况进行了优化。例如,它会处理列与列之间的关系,确保在聚合或变换过程中列的对齐和数据完整性。

方法重载:

DataFrameGroupBy 中,有些方法可能会被重载以提供更针对 DataFrame 的行为,例如处理列名的冲突、保留索引等。而通过使用 super() 调用,DataFrameGroupBy 可以保留 GroupBy 类的原始行为,并在此基础上添加或修改功能,以适应 DataFrame 的特殊需求。

这种设计模式不仅使得 Pandas 库具有很高的灵活性和扩展性,同时也提供了很高的代码复用性和维护性,允许不同类型的 Pandas 对象共享大量的代码和逻辑,同时保留了进行特定优化的空间。

源码逐行解析

6. 数据透视 pivot

功能说明

用于创建数据透视表,重塑数据。

示例

df = pd.DataFrame({
    'foo': ['one', 'one', 'one', 'two', 'two', 'two'],
    'bar': ['A', 'B', 'C', 'A', 'B', 'C'],
    'baz': [1, 2, 3, 4, 5, 6],
    'zoo': ['x', 'y', 'z', 'q', 'w', 't']
})
pivot_df = df.pivot(index='foo', columns='bar', values='baz')
print(pivot_df)

输出

bar    A  B  C
foo
one    1  2  3
two    4  5  6

知识点 使用 MultiIndex 和索引操作

解读:

  • Pandas 中的 MultiIndex 允许在一个轴上有多个(两个以上)索引级别。这在处理复杂的数据结构时非常有用,特别是当你需要在单个轴上表达更多维度的层次结构时。
  • 在这段代码中,MultiIndex.from_arrays([index, data[columns]]) 创建了一个两级的索引,这使得每个数据点都可以通过一个由 indexcolumns 参数确定的复合键来唯一标识。这对于数据透视非常重要,因为它允许用户根据两个维度来重塑数据。

应用:

  • 使用 MultiIndex 可以极大地增强数据分析的灵活性和数据表示的丰富性。例如,在金融数据分析中,可以使用 MultiIndex 来同时按日期和股票代码索引数据。
  • pivot 函数中,这种索引策略使得将数据从长格式转换为宽格式变得可能,为后续的数据分析和可视化提供了便利。

总结:

这段代码不仅展示了如何使用 Pandas 进行数据透视操作,还突出了 MultiIndex 在实现复杂数据操作中的应用。通过合理使用索引技术,可以有效地提升数据处理任务的效率和灵活性。

源码逐行解析

在这段代码中,我们看到了 Pandas 中的 pivot 函数实现,该函数用于将长格式数据转换成宽格式数据

@Appender(_shared_docs["pivot"], indents=1)  # 使用装饰器添加文档字符串,提高代码可维护性和文档的一致性
def pivot(data, index=None, columns=None, values=None):
    if values is None:  # 当未指定 values 参数时
        cols = [columns] if index is None else [index, columns]  # 确定用作新索引的列
        append = index is None  # 决定是否将现有索引保留在结果DataFrame中
        indexed = data.set_index(cols, append=append)  # 设置新索引,可能保留旧索引
    else:  # 当指定了 values 参数时
        if index is None:  # 如果没有明确指定 index,则使用 DataFrame 的当前索引
            index = data.index
        else:  # 如果指定了 index,则从 data 中获取这个 index 列
            index = data[index]
        index = MultiIndex.from_arrays([index, data[columns]])  # 创建一个多级索引
        if is_list_like(values) and not isinstance(values, tuple):  # 检查 values 是否为列表类型但不是元组
            # 创建一个新的 DataFrame,将指定的 values 列作为数据,多级索引为索引,values 名称作为列名
            indexed = data._constructor(
                data[values].values, index=index, columns=values
            )
        else:  # 对于单个值字段,使用 _constructor_sliced 创建一个 Series
            indexed = data._constructor_sliced(data[values].values, index=index)
    return indexed.unstack(columns)  # 对指定的 columns 列执行 unstack 操作,将长格式转换为宽格式

7. 数据连接 join

功能说明

join 是用于按照索引合并不同 DataFrame 的方法,它提供了一个便捷的接口来合并多个 DataFrame

示例

import pandas as pd
df1 = pd.DataFrame({'A': ['A0', 'A1', 'A2'],
                    'B': ['B0', 'B1', 'B2']},
                   index=['K0', 'K1', 'K2'])
df2 = pd.DataFrame({'C': ['C0', 'C1', 'C2'],
                    'D': ['D0', 'D1', 'D2']},
                   index=['K0', 'K2', 'K3'])
# 使用 join 进行连接
result = df1.join(df2)
print(result)

输出

A   B    C    D
K0  A0  B0   C0   D0
K1  A1  B1  NaN  NaN
K2  A2  B2   C1   D1

知识点 错误处理

在这段代码中,错误处理是一个重要的部分。处理错误的方式能够确保函数的健壮性,防止在错误的使用条件下执行不当的操作。

解读:

  • 错误检查使用了条件语句来判断 other 对象的类型和状态(例如,检查 Series 是否有名字,检查 on 是否非空)。
  • 通过抛出具体的错误信息(ValueError),开发者可以立即理解问题所在,这对于调试和使用函数的用户来说都是非常有帮助的。

应用:

  • 在实际开发中,合适的错误检查和异常处理可以防止数据损坏和应用崩溃,提高应用的可靠性。
  • 通过明确的错误消息,用户可以更快地诊断问题,提高开发效率。

这段代码展示了如何实现复杂的数据合并逻辑,还体现了良好的错误处理和代码结构设计的重要性

源码逐行解析

这段代码定义了一个名为 _join_compat 的方法,用于合并 DataFrameSeries 对象。其中还调用了merge和concat下面是逐行解析和注释,以说明每行代码的功能:

def _join_compat(
        self,
        other: FrameOrSeriesUnion,
        on: IndexLabel | None = None,
        how: str = "left",
        lsuffix: str = "",
        rsuffix: str = "",
        sort: bool = False,
    ):
        from pandas.core.reshape.concat import concat  # 用于拼接数据帧
        from pandas.core.reshape.merge import merge  # 用于合并数据帧
        if isinstance(other, Series):  # 检查 other 是否为 Series
            if other.name is None:  # Series 必须有名字才能进行合并
                raise ValueError("Other Series must have a name")
            other = DataFrame({other.name: other})  # 将 Series 转换为 DataFrame
        if isinstance(other, DataFrame):  # 检查 other 是否为 DataFrame
            if how == "cross":  # 如果合并方式为 cross
                return merge(
                    self,
                    other,
                    how=how,
                    on=on,
                    suffixes=(lsuffix, rsuffix),
                    sort=sort,
                )  # 使用 pandas 的 merge 函数进行交叉合并
            return merge(
                self,
                other,
                left_on=on,
                how=how,
                left_index=on is None,
                right_index=True,
                suffixes=(lsuffix, rsuffix),
                sort=sort,
            )  # 使用 merge 进行合并,可能使用索引或指定的键
        else:
            if on is not None:
                raise ValueError(
                    "Joining multiple DataFrames only supported for joining on index"
                )  # 如果 on 参数非空但 other 不是 DataFrame,抛出错误
            frames = [self] + list(other)  # 将 self 和 other 组成列表
            can_concat = all(df.index.is_unique for df in frames)  # 检查所有数据帧的索引是否唯一
            # 如果索引唯一,使用 concat 进行拼接
            if can_concat:
                if how == "left":
                    res = concat(
                        frames, axis=1, join="outer", verify_integrity=True, sort=sort
                    )  # 使用 outer 方式拼接,保留所有索引
                    return res.reindex(self.index, copy=False)  # 重新索引到 self 的索引上
                else:
                    return concat(
                        frames, axis=1, join=how, verify_integrity=True, sort=sort
                    )  # 根据 how 参数决定拼接方式
            joined = frames[0]  # 初始化 joined 为第一个数据帧
            for frame in frames[1:]:  # 遍历除第一个外的所有数据帧
                joined = merge(
                    joined, frame, how=how, left_index=True, right_index=True
                )  # 使用 merge 基于索引进行合并
            return joined  # 返回最终合并后的结果

8. 数据连接 concat

功能说明

concat 用于沿一定轴将多个对象堆叠到一起。此函数提供了多种选项来处理索引和其他轴上的关系。

示例

df3 = pd.DataFrame({'A': ['A3', 'A4', 'A5'],
                    'B': ['B3', 'B4', 'B5']},
                   index=['K3', 'K4', 'K5'])
df4 = pd.DataFrame({'A': ['A6', 'A7', 'A8'],
                    'B': ['B6', 'B7', 'B8']},
                   index=['K6', 'K7', 'K8'])
# 使用 concat 连接
result = pd.concat([df1, df3, df4])
print(result)

输出

A   B
K0  A0  B0
K1  A1  B1
K2  A2  B2
K3  A3  B3
K4  A4  B4
K5  A5  B5
K6  A6  B6
K7  A7  B7
K8  A8  B8

源码说明

引用了_Concatenator

知识点 内存管理

在处理 _Concatenator 类的 get_result 方法时,涉及到了条件性数据复制和就地数据操作,这对内存管理非常关键。以下是一段关键代码:

  1. 条件性数据复制
  • concatenate_block_managers 函数接收一个 copy 参数,这允许根据需要控制是否进行数据复制。如果 copy 设置为 False,则尽可能通过引用而非复制来操作数据块,这有助于减少内存消耗。
  1. 就地合并 (_consolidate_inplace 方法)
  • 在不复制数据的情况下,_consolidate_inplace() 方法被调用以就地优化和重组内部的数据块结构,这有助于提高内存利用效率。这个方法尝试在不增加额外内存负担的情况下,整合和压缩数据块,从而减少内存碎片和整体内存占用。

编程启发

  1. 使用条件性复制
  • 在设计涉及数据处理和转换的函数时,考虑引入可选的复制控制,让调用者根据需要选择是否进行数据复制。这不仅可以提供灵活性,还能在处理大数据集时提高内存效率。
  1. 优化内部数据结构
  • 在处理复杂或大型的数据结构时,考虑实现像 _consolidate_inplace 这样的方法,对内部数据进行就地优化。这样的方法应该旨在减少数据冗余和内存占用,同时保持数据完整性和访问效率。
  1. 延迟数据操作
  • 尽可能延迟数据修改和重整操作直到确实需要,以避免不必要的计算和内存开销。例如,在数据拼接或合并操作中,可以集中处理而非逐步执行,从而利用更有效的数据结构和算法优化性能。

这些策略和编程思想不仅适用于数据处理库的开发,也可以应用于任何需要高效内存管理的软件开发场景中,特别是在处理大规模数据时。

源码逐行解析

def get_result(self):
    # series only
    if self._is_series:  # 判断是否只处理 Series 对象
        # stack blocks
        if self.axis == 0:  # 如果是沿着 index 轴拼接
            name = com.consensus_name_attr(self.objs)  # 获取 Series 的统一名称
            mgr = self.objs[0]._data.concat(
                [x._data for x in self.objs], self.new_axes
            )  # 对所有 Series 的数据块进行拼接
            cons = _concat._get_series_result_type(mgr, self.objs)  # 获取拼接后的 Series 类型
            return cons(mgr, name=name).__finalize__(self, method="concat")  # 创建并返回新的 Series 对象
        # combine as columns in a frame
        else:  # 如果是沿着 columns 轴拼接
            data = dict(zip(range(len(self.objs)), self.objs))  # 将 Series 对象转换为字典
            cons = _concat._get_series_result_type(data)  # 获取结果类型
            index, columns = self.new_axes  # 获取新的索引和列
            df = cons(data, index=index)  # 创建 DataFrame
            df.columns = columns  # 设置列名
            return df.__finalize__(self, method="concat")  # 返回最终的 DataFrame
    # combine block managers
    else:  # 处理 DataFrame 或含 BlockManager 的情况
        mgrs_indexers = []
        for obj in self.objs:
            mgr = obj._data  # 获取每个对象的数据管理器
            indexers = {}
            for ax, new_labels in enumerate(self.new_axes):
                if ax == self.axis:
                    continue  # 如果是拼接轴,则跳过重索引
                obj_labels = mgr.axes[ax]  # 获取当前轴的标签
                if not new_labels.equals(obj_labels):
                    indexers[ax] = obj_labels.reindex(new_labels)[1]  # 重新索引并存储索引器
            mgrs_indexers.append((obj._data, indexers))  # 存储每个对象的数据管理器和索引器
        new_data = concatenate_block_managers(
            mgrs_indexers, self.new_axes, concat_axis=self.axis, copy=self.copy
        )  # 使用 concatenate_block_managers 拼接数据管理器
        if not self.copy:
            new_data._consolidate_inplace()  # 如果不复制数据,则就地合并数据块
        cons = _concat._get_frame_result_type(new_data, self.objs)  # 获取结果类型
        return cons._from_axes(new_data, self.new_axes).__finalize__(
            self, method="concat"
        )  # 创建并返回最终的 DataFrame

9. 添加数据 append

功能说明

append 是一个将一行或多行数据快速追加到 DataFrame 的方法。

示例

new_row = pd.DataFrame({'A': ['A9'], 'B': ['B9']}, index=['K9'])
result = df1.append(new_row)
print(result)

输出

A   B
K0  A0  B0
K1  A1  B1
K2  A2  B2
K9  A9  B9

源码说明

这段代码定义了 append 方法,用于将数据(DataFrameSeries,字典或列表)追加到现有的 DataFrame 后面,返回一个新的 DataFrame 对象(实际是引用 cconat函数进行操作)。逐行分析如下:

def append(
        self,
        other,
        ignore_index: bool = False,
        verify_integrity: bool = False,
        sort: bool = False,
    ) -> DataFrame:
        """
        [这里是详细的文档字符串,解释方法的功能和参数]
        """
        if isinstance(other, (Series, dict)):  # 检查 other 是否为 Series 或字典
            if isinstance(other, dict):  # 如果 other 是字典
                if not ignore_index:  # 如果不忽略索引,则抛出错误
                    raise TypeError("Can only append a dict if ignore_index=True")
                other = Series(other)  # 将字典转换为 Series 对象
            if other.name is None and not ignore_index:  # 如果 Series 没有名字且未设置忽略索引
                raise TypeError("Can only append a Series if ignore_index=True or if the Series has a name")
            index = Index([other.name], name=self.index.name)  # 创建一个新索引
            idx_diff = other.index.difference(self.columns)  # 找出 other 中有而 self 中没有的列
            combined_columns = self.columns.append(idx_diff)  # 合并列
            other = (
                other.reindex(combined_columns, copy=False)  # 重排 other 以匹配列顺序
                .to_frame()  # 将 Series 转换为 DataFrame
                .T.infer_objects()  # 转置并推断对象类型
                .rename_axis(index.names, copy=False)  # 重命名轴
            )
            if not self.columns.equals(combined_columns):  # 如果列不相等,则重新索引 self
                self = self.reindex(columns=combined_columns)
        elif isinstance(other, list):  # 如果 other 是列表
            if not other:  # 如果列表为空,不做任何操作
                pass
            elif not isinstance(other[0], DataFrame):  # 如果列表的第一个元素不是 DataFrame
                other = DataFrame(other)  # 将列表转换为 DataFrame
                if (self.columns.get_indexer(other.columns) >= 0).all():  # 如果列完全匹配
                    other = other.reindex(columns=self.columns)  # 重排列以匹配 self
        from pandas.core.reshape.concat import concat  # 导入 concat 函数
        if isinstance(other, (list, tuple)):  # 如果 other 是列表或元组
            to_concat = [self, *other]  # 创建一个列表包含 self 和 other 的所有元素
        else:
            to_concat = [self, other]  # 创建一个列表包含 self 和 other
        return (
            concat(
                to_concat,
                ignore_index=ignore_index,
                verify_integrity=verify_integrity,
                sort=sort,
            )
        ).__finalize__(self, method="append")  # 调用 concat,然后使用 __finalize__ 处理结果

10. 数据融合 melt

功能说明melt 用于将 DataFrame 从宽格式变为长格式,通常用于将多个列融合为一个,非常适用于数据重塑和可视化。

示例

df = pd.DataFrame({
    'A': ['John', 'Alice'],
    'B': [28, 24],
    'C': ['New York', 'Los Angeles']
})
melted = pd.melt(df, id_vars=['A'], value_vars=['B', 'C'])
print(melted)

输出

A variable        value
0    John        B          28
1   Alice        B          24
2    John        C    New York
3   Alice        C  Los Angeles

总结

除了掌握基本的用法外,通过深入的解析pandas的DataFrame,学习源码的编码习惯和用法能够对我们自己的代码精进有很大帮助,同时整体的代码结构和引用也很复杂后续会继续更新,如果对你有帮助欢迎关注收藏,避免迷路


欢迎关注微信公众号 数据分析螺丝钉

相关文章
|
1月前
|
监控 Java 应用服务中间件
高级java面试---spring.factories文件的解析源码API机制
【11月更文挑战第20天】Spring Boot是一个用于快速构建基于Spring框架的应用程序的开源框架。它通过自动配置、起步依赖和内嵌服务器等特性,极大地简化了Spring应用的开发和部署过程。本文将深入探讨Spring Boot的背景历史、业务场景、功能点以及底层原理,并通过Java代码手写模拟Spring Boot的启动过程,特别是spring.factories文件的解析源码API机制。
71 2
|
18天前
|
数据可视化 数据处理 Python
使用Pandas实现Excel中的数据透视表功能
本文介绍了如何使用Python的Pandas库实现Excel中的数据透视表功能,包括环境准备、创建模拟销售数据、代码实现及输出等步骤。通过具体示例展示了按地区和销售员汇总销售额的不同方法,如求和、平均值、最大值等,帮助读者掌握Pandas在数据处理上的强大能力。
52 12
|
20天前
|
缓存 Java 调度
多线程编程核心:上下文切换深度解析
在现代计算机系统中,多线程编程已成为提高程序性能和响应速度的关键技术。然而,多线程编程中一个不可避免的概念就是上下文切换(Context Switching)。本文将深入探讨上下文切换的概念、原因、影响以及优化策略,帮助你在工作和学习中深入理解这一技术干货。
37 10
|
17天前
|
PyTorch Shell API
Ascend Extension for PyTorch的源码解析
本文介绍了Ascend对PyTorch代码的适配过程,包括源码下载、编译步骤及常见问题,详细解析了torch-npu编译后的文件结构和三种实现昇腾NPU算子调用的方式:通过torch的register方式、定义算子方式和API重定向映射方式。这对于开发者理解和使用Ascend平台上的PyTorch具有重要指导意义。
|
22天前
|
缓存 监控 Java
Java线程池提交任务流程底层源码与源码解析
【11月更文挑战第30天】嘿,各位技术爱好者们,今天咱们来聊聊Java线程池提交任务的底层源码与源码解析。作为一个资深的Java开发者,我相信你一定对线程池并不陌生。线程池作为并发编程中的一大利器,其重要性不言而喻。今天,我将以对话的方式,带你一步步深入线程池的奥秘,从概述到功能点,再到背景和业务点,最后到底层原理和示例,让你对线程池有一个全新的认识。
50 12
|
20天前
|
存储 编译器 C语言
【C语言】数据类型全解析:编程效率提升的秘诀
在C语言中,合理选择和使用数据类型是编程的关键。通过深入理解基本数据类型和派生数据类型,掌握类型限定符和扩展技巧,可以编写出高效、稳定、可维护的代码。无论是在普通应用还是嵌入式系统中,数据类型的合理使用都能显著提升程序的性能和可靠性。
40 8
|
20天前
|
算法 调度 开发者
多线程编程核心:上下文切换深度解析
在多线程编程中,上下文切换是一个至关重要的概念,它直接影响到程序的性能和响应速度。本文将深入探讨上下文切换的含义、原因、影响以及如何优化,帮助你在工作和学习中更好地理解和应用多线程技术。
31 4
|
1月前
|
存储 缓存 开发者
Python编程中的装饰器深度解析
本文将深入探讨Python语言的装饰器概念,通过实际代码示例展示如何创建和应用装饰器,并分析其背后的原理和作用。我们将从基础定义出发,逐步引导读者理解装饰器的高级用法,包括带参数的装饰器、多层装饰器以及装饰器与类方法的结合使用。文章旨在帮助初学者掌握这一强大工具,同时为有经验的开发者提供更深层次的理解和应用。
32 7
|
29天前
|
存储 安全 Java
Java多线程编程中的并发容器:深入解析与实战应用####
在本文中,我们将探讨Java多线程编程中的一个核心话题——并发容器。不同于传统单一线程环境下的数据结构,并发容器专为多线程场景设计,确保数据访问的线程安全性和高效性。我们将从基础概念出发,逐步深入到`java.util.concurrent`包下的核心并发容器实现,如`ConcurrentHashMap`、`CopyOnWriteArrayList`以及`BlockingQueue`等,通过实例代码演示其使用方法,并分析它们背后的设计原理与适用场景。无论你是Java并发编程的初学者还是希望深化理解的开发者,本文都将为你提供有价值的见解与实践指导。 --- ####
|
1月前
|
存储 安全 Linux
Golang的GMP调度模型与源码解析
【11月更文挑战第11天】GMP 调度模型是 Go 语言运行时系统的核心部分,用于高效管理和调度大量协程(goroutine)。它通过少量的操作系统线程(M)和逻辑处理器(P)来调度大量的轻量级协程(G),从而实现高性能的并发处理。GMP 模型通过本地队列和全局队列来减少锁竞争,提高调度效率。在 Go 源码中,`runtime.h` 文件定义了关键数据结构,`schedule()` 和 `findrunnable()` 函数实现了核心调度逻辑。通过深入研究 GMP 模型,可以更好地理解 Go 语言的并发机制。

推荐镜像

更多
下一篇
DataWorks