博客
关于我
(P53)面向对象版表达式计算器:内存跟踪器的实现
阅读量:409 次
发布时间:2019-03-05

本文共 1151 字,大约阅读时间需要 3 分钟。

文章目录

1.内存跟踪器的实现

  • 1个解决方案中可以包含多个工程

    在这里插入图片描述
    在这里插入图片描述
    所以要编译和启动CalculatorTest项目,则需要将其设置为启动项目
    在这里插入图片描述
    接着运行,此时就是CalculatorTest项目
    在这里插入图片描述

  • 有几种方法可以跟踪内存使用状况呢?

    (1)自己实现malloc(new内部也是使用malloc实现的),在里面进行跟踪
    (2)推荐使用内存检测工具进行跟踪:
    Linux:valgrind,dmalloc,efence
    Windows:visual leak detector
    (3)自己编写小型的内存跟踪器:重载operator new和operator delete来进行跟踪
    new operator等价于operator new先分配内存 + 如果是一个类对象还会调用构造函数,所以可以在operator new中跟踪在哪一个文件哪一行分配了内存

  • 头文件的包含次序,为了防止一些隐含的依赖:C库、C++库、其他库.h、项目中的.h

  • eg:编写测试程序测试内存泄漏时发生的情况

    P53\CalculatorTest\main.cpp

#include 
using namespace std;#include "DebugNew.h"int main(void){ int* p =new int; // delete p; return 0;}
  • 测试:

    在这里插入图片描述

  • eg:P53\CalculatorTest\main.cpp

#include 
using namespace std;#include "DebugNew.h"int main(void){ int* p =new int; delete p; return 0;}
  • 测试:
    在这里插入图片描述
    按下F11
    此时调用的operator delete并不是void operator delete(void* p, const char*, long),所以这里需要重载void operator delete(void*p),否则可能存在误报的现象
    在这里插入图片描述
  • eg:P53\CalculatorTest\main.cpp
#include 
using namespace std;#include "DebugNew.h"int main(void){ int* p =new int; delete p; int* p2 = new int[5]; //delete[] p2; return 0;}
  • 测试:

    在这里插入图片描述

  • 为啥要重载operator delete[]运算的原因?

    在这里插入图片描述
    因为发现通过打断点进入debug,发现调用的是这种的delete
    在这里插入图片描述

转载地址:http://ljfzz.baihongyu.com/

你可能感兴趣的文章
NHibernate学习[1]
查看>>
NHibernate异常:No persister for的解决办法
查看>>
Nhibernate的第一个实例
查看>>
NHibernate示例
查看>>
nid修改oracle11gR2数据库名
查看>>
NIFI1.21.0/NIFI1.22.0/NIFI1.24.0/NIFI1.26.0_2024-06-11最新版本安装_采用HTTP方式_搭建集群_实际操作---大数据之Nifi工作笔记0050
查看>>
NIFI1.21.0_java.net.SocketException:_Too many open files 打开的文件太多_实际操作---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_日期类型_以及null数据同步处理补充---大数据之Nifi工作笔记0057
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_插入时如果目标表中已存在该数据则自动改为更新数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0058
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_更新时如果目标表中不存在记录就改为插入数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0059
查看>>
NIFI1.21.0_NIFI和hadoop蹦了_200G集群磁盘又满了_Jps看不到进程了_Unable to write in /tmp. Aborting----大数据之Nifi工作笔记0052
查看>>
NIFI1.21.0_Postgresql和Mysql同时指定库_指定多表_全量同步到Mysql数据库以及Hbase数据库中---大数据之Nifi工作笔记0060
查看>>
NIFI1.21.0最新版本安装_连接phoenix_单机版_Https登录_什么都没改换了最新版本的NIFI可以连接了_气人_实现插入数据到Hbase_实际操作---大数据之Nifi工作笔记0050
查看>>
NIFI1.21.0最新版本安装_配置使用HTTP登录_默认是用HTTPS登录的_Https登录需要输入用户名密码_HTTP不需要---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增加修改实时同步_使用JsonPath及自定义Python脚本_03---大数据之Nifi工作笔记0055
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_插入修改删除增量数据实时同步_通过分页解决变更记录过大问题_01----大数据之Nifi工作笔记0053
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表或全表增量同步_实现指定整库同步_或指定数据表同步配置_04---大数据之Nifi工作笔记0056
查看>>
NIFI1.23.2_最新版_性能优化通用_技巧积累_使用NIFI表达式过滤表_随时更新---大数据之Nifi工作笔记0063
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现update数据实时同步_实际操作05---大数据之Nifi工作笔记0044
查看>>