【数组与链表算法】矩阵算法在程序中常见的简单应用 | C++

简介: 数组与链表都是相当重要的结构化数据类型,也都是典型线性表的应用。线性表用于计算机中的数据存储结构,按照内存存储的方式基本上可以分为以下两种:静态数据结构和动态数据结构。数组类型就是一种典型的静态数据结构,动态数据结构又称为链表。在我前面的算法系列文章都细致的对二者的使用方法做过讲解。

前言

       数组与链表都是相当重要的结构化数据类型,也都是典型线性表的应用。线性表用于计算机中的数据存储结构,按照内存存储的方式基本上可以分为以下两种:静态数据结构和动态数据结构。数组类型就是一种典型的静态数据结构,动态数据结构又称为链表。在我前面的算法系列文章都细致的对二者的使用方法做过讲解。

矩阵算法与深度学习

       从数学的角度来看,矩阵在计算机中是以二维数组的形式来展现的。在三维图形学中,矩阵也被经常性的使用,因为它可以表示模型数据的投影,扩大,缩小等三维运算。深度学习是目前相当热门的技术和话题,它与机器学习等技术类属于人工智能的一个分支,也是具有层次性的机器学习法。线性代数在深度学习中发挥了它强大的数学能力,在深度学习中我们常常用大量的矩阵运算来提高计算效率。在GPU(图形处理器)的内部,它就是以向量和矩阵元素为基础的,大量的矩阵运算可以分配给数众多的内核同步去进行处理,从而使人工智能领域进入更实用性的阶段。深度学习源自于类神经网络模型,它结合了大量的运算资源和神经网络框架,让机器像人类大脑那样通过大量的数据信息来进行神经网络化的深度学习。就像前几年的人工智能围棋程序AlphaGo就展现出了它的强大生命力。

一、矩阵相加

1.具体情况

       矩阵的相加运算较为简单,前提是相加的几个矩阵具有相同的行列数,从而相加后的结果矩阵与原来矩阵的行列数也是相同的。具体如下图所示:

2.范例程序:用程序代码对随机输入的两个矩阵进行相加。

3.代码展示:

#include<iostream>
using namespace std;
#define row 4   //事先声明矩阵的行数
#define col 4 //事先声明矩阵的列数
class matrix {
public:
  int A[row][col];
  int B[row][col];
  int record[row][col];
  void matrix_add() {
  for (int i = 0; i < row; i++)
    for (int j = 0; j < col; j++)
    record[i][j] = A[i][j] + B[i][j];
  }
  void showresult() {
  cout << "两矩阵相加之和如下" << endl;
  for (int i = 0; i < row; i++) {
    for (int j = 0; j < col; j++) {
    cout << record[i][j] << " ";
    }
    cout << endl;
  }
  }
};
void text()
{
  matrix m;
  cout << "请输入矩阵A" << endl;
  for (int i = 0; i < row; i++)
  for (int j = 0; j < col; j++)
    cin >> m.A[i][j];
  cout << "请输入矩阵B" << endl;
  for (int i = 0; i < row; i++)
  for (int j = 0; j < col; j++)
    cin >> m.B[i][j];
  m.matrix_add();
  m.showresult();
}
int main()
{
  text();
}

4.结果展示:


、矩阵相乘

1.具体情况

       两个矩阵A与B的相乘受到了一些条件的限制。首先必须符合A为一个m×n的矩阵,B为一个n×p的矩阵,A×B后的结果成为一个m×p的矩阵C,具体如下图所示:


2.范例程序:用程序代码去实现三个随机输入矩阵的相乘。

3.代码展示:

#include<iostream>
using namespace std;
#define row 3   //事先声明矩阵的行数
#define col 3 //事先声明矩阵的列数
class matrix {
public:
  int A[row][col];
  int B[row][col];
  int C[row][col];
  int record[row][col];
  int sum;
  void matrix_mul() {
  for (int i = 0; i < row; i++) {
    for (int j = 0; j < col; j++) {
    int m = 0,n=0;
    record[i][j]=A[i][m] * B[n][j] + A[i][m+1] * B[n+1][j] + A[i][m+2] * B[n+2][j];
    }
  }
  for (int i = 0; i < row; i++) {
    for (int j = 0; j < col; j++) {
    int m = 0, n = 0;
    record[i][j] = record[i][m] * C[n][j] + record[i][m+1] * C[n+1][j] + record[i][m+2] * C[n+2][j];
    }
  }
  }
  void showresult() {
  cout << "三矩阵相乘结果如下" << endl;
  for (int i = 0; i < row; i++) {
    for (int j = 0; j < col; j++) {
    cout << record[i][j] << " ";
    }
    cout << endl;
  }
  }
};
void text()
{
  matrix m;
  cout << "请输入矩阵A" << endl;
  for (int i = 0; i < row; i++)
  for (int j = 0; j < col; j++)
    cin >> m.A[i][j];
  cout << "请输入矩阵B" << endl;
  for (int i = 0; i < row; i++)
  for (int j = 0; j < col; j++)
    cin >> m.B[i][j];
  cout << "请输入矩阵C" << endl;
  for (int i = 0; i < row; i++)
  for (int j = 0; j < col; j++)
    cin >> m.C[i][j];
  m.matrix_mul();
  m.showresult();
}
int main()
{
  text();
}

4.结果展示:

、矩阵转置

1.具体情况

       转置矩阵就是把原矩阵的行坐标元素与列坐标元素进行相互调换。具体如下图所示:



2.范例程序:用程序代码去输出随机输入矩阵的转置矩阵。

3.代码展示:

#include<iostream>
using namespace std;
#define row 4   //事先声明矩阵的行数
#define col 4 //事先声明矩阵的列数
class matrix {
public:
  int A[row][col];
  int record[row][col];
  void matrix_tran() {
  for (int i = 0; i < row; i++) {
    for (int j = 0; j < col; j++) {
    record[j][i] = A[i][j];
    }
  }
  }
  void showresult() {
  cout << "输入矩阵的转置结果如下" << endl;
  for (int i = 0; i < row; i++) {
    for (int j = 0; j < col; j++) {
    cout << record[i][j] << " ";
    }
    cout << endl;
  }
  }
};
void text()
{
  matrix m;
  cout << "请输入矩阵" << endl;
  for (int i = 0; i < row; i++)
  for (int j = 0; j < col; j++)
    cin >> m.A[i][j];
  m.matrix_tran();
  m.showresult();
}
int main()
{
  text();
}

4.结果展示:

、稀疏矩阵

1.具体情况

       稀疏矩阵就是指一个矩阵中的大部分元素为0的一种特殊矩阵。因为稀疏矩阵中大部分元素都是0,所以实际存储的数据项少,如果在计算机中以传统的方式来存储稀疏矩阵,就会浪费极大的计算机内存。在这里将会用到三项式型的数据结构来存储稀疏矩阵,其中A(0,1):表示该稀疏矩阵的行数;A(0,2):表示该稀疏矩阵的列数;A(0,3):表示此稀疏矩阵中非零项的总数;另外,每一个非零项以(i,j,item-value)来表示。其中i表示此矩阵中非零项所在的行数,j表示非零项所在的列数,item-value表示该非零项的值。具体情况如下图所示:


2.范例程序:用程序代码去输出一个随机输入稀疏矩阵的三项式下的压缩结果。

3.代码展示:

#include<iostream>
using namespace std;
#define row 8   //稀疏矩阵的行数
#define col 9 //稀疏矩阵的列数
#define notzero 8   //稀疏矩阵中不为0的数据个数
class matrix {
public:
  int sparse[row][col];   
  int compress[notzero][3];
  void matrix_sparse() {
  compress[0][0] = row;
  compress[0][1] = col;
  compress[0][2] = notzero;
  cout << "三项式下矩阵的压缩结果如下" << endl;
  cout << compress[0][0] << " " << compress[0][1] << " " << compress[0][2] << endl;
  for (int i = 0,k=1; i < row; i++,k++) {
    int m = 0;
    for (int j = 0; j < col; j++) {
    if (sparse[i][j] != 0)
    {
      compress[k][m] = i;
      compress[k][m + 1] = j;
      compress[k][m + 2] = sparse[i][j];
      cout << compress[k][m] <<" "<< compress[k][m + 1] <<" "<< compress[k][m + 2] << endl;
    }
    }
  }
  }
};
void text()
{
  matrix m;
  cout << "请输入稀疏矩阵" << endl;
  for (int i = 0; i < row; i++)
  for (int j = 0; j < col; j++)
    cin >> m.sparse[i][j];
  m.matrix_sparse();
}
int main()
{
  text();
}

总结

       矩阵是高等代数学中的常见工具,在物理学,计算机科学等等的领域它都有着非常重要的应用。在上面我们只介绍了一些简单的矩阵运算实例,其实矩阵的运算和矩阵的类别有很多很多,它们都可以尝试用代码在程序中进行模拟实现。


目录
相关文章
|
2月前
|
存储 算法 Java
解析HashSet的工作原理,揭示Set如何利用哈希算法和equals()方法确保元素唯一性,并通过示例代码展示了其“无重复”特性的具体应用
在Java中,Set接口以其独特的“无重复”特性脱颖而出。本文通过解析HashSet的工作原理,揭示Set如何利用哈希算法和equals()方法确保元素唯一性,并通过示例代码展示了其“无重复”特性的具体应用。
54 3
|
21天前
|
存储 缓存 算法
在C语言中,数据结构是构建高效程序的基石。本文探讨了数组、链表、栈、队列、树和图等常见数据结构的特点、应用及实现方式
在C语言中,数据结构是构建高效程序的基石。本文探讨了数组、链表、栈、队列、树和图等常见数据结构的特点、应用及实现方式,强调了合理选择数据结构的重要性,并通过案例分析展示了其在实际项目中的应用,旨在帮助读者提升编程能力。
43 5
|
21天前
|
机器学习/深度学习 人工智能 算法
探索人工智能中的强化学习:原理、算法与应用
探索人工智能中的强化学习:原理、算法与应用
|
20天前
|
机器学习/深度学习 算法 数据挖掘
C语言在机器学习中的应用及其重要性。C语言以其高效性、灵活性和可移植性,适合开发高性能的机器学习算法,尤其在底层算法实现、嵌入式系统和高性能计算中表现突出
本文探讨了C语言在机器学习中的应用及其重要性。C语言以其高效性、灵活性和可移植性,适合开发高性能的机器学习算法,尤其在底层算法实现、嵌入式系统和高性能计算中表现突出。文章还介绍了C语言在知名机器学习库中的作用,以及与Python等语言结合使用的案例,展望了其未来发展的挑战与机遇。
39 1
|
20天前
|
并行计算 算法 测试技术
C语言因高效灵活被广泛应用于软件开发。本文探讨了优化C语言程序性能的策略,涵盖算法优化、代码结构优化、内存管理优化、编译器优化、数据结构优化、并行计算优化及性能测试与分析七个方面
C语言因高效灵活被广泛应用于软件开发。本文探讨了优化C语言程序性能的策略,涵盖算法优化、代码结构优化、内存管理优化、编译器优化、数据结构优化、并行计算优化及性能测试与分析七个方面,旨在通过综合策略提升程序性能,满足实际需求。
49 1
|
29天前
|
缓存 算法 网络协议
OSPF的路由计算算法:原理与应用
OSPF的路由计算算法:原理与应用
42 4
|
27天前
|
机器学习/深度学习 监控 算法
基于反光衣和检测算法的应用探索
本文探讨了利用机器学习和计算机视觉技术进行反光衣检测的方法,涵盖图像预处理、目标检测与分类、特征提取等关键技术。通过YOLOv5等模型的训练与优化,展示了实现高效反光衣识别的完整流程,旨在提升智能检测系统的性能,应用于交通安全、工地监控等领域。
|
28天前
|
存储 缓存 算法
通过优化算法和代码结构来提升易语言程序的执行效率
通过优化算法和代码结构来提升易语言程序的执行效率
|
29天前
|
存储 算法 网络协议
OSPF的SPF算法介绍:原理、实现与应用
OSPF的SPF算法介绍:原理、实现与应用
76 3
|
1月前
|
机器学习/深度学习 JSON 算法
二叉树遍历算法的应用场景有哪些?
【10月更文挑战第29天】二叉树遍历算法作为一种基础而重要的算法,在许多领域都有着不可或缺的应用,它为解决各种复杂的问题提供了有效的手段和思路。随着计算机科学的不断发展,二叉树遍历算法也在不断地被优化和扩展,以适应新的应用场景和需求。
40 0