多标签使用两个不同的LMDB

5

我是caffe框架的新手,我想使用caffe来实现多标签训练。我使用两个LMDB来分别保存数据和标签。数据LMDB的维度为Nx1xHxW,而标签LMDB的维度为Nx1x1x3。标签是浮点数据。

文本文件如下:

5911 3
train/train_data/4224.bmp        13         0        12
train/train_data/3625.bmp        11         3         7
...                              ...

我使用C++创建LMDB。这是我的main.cpp:

#include <algorithm>
#include <fstream>  // NOLINT(readability/streams)
#include <string>
#include <utility>
#include <vector>
#include <QImage>

#include "boost/scoped_ptr.hpp"
#include "gflags/gflags.h"
#include "glog/logging.h"

#include "caffe/proto/caffe.pb.h"
#include "caffe/util/db.hpp"
#include "caffe/util/format.hpp"
#include "caffe/util/rng.hpp"

#include <boost/filesystem.hpp>
#include <iomanip>
#include <iostream>  // NOLINT(readability/streams)
#include <string>

#include "google/protobuf/message.h"

#include "caffe/common.hpp"
#include "caffe/proto/caffe.pb.h"
#include "caffe/util/format.hpp"

#ifndef CAFFE_TMP_DIR_RETRIES
#define CAFFE_TMP_DIR_RETRIES 100
#endif

using namespace caffe;  // NOLINT(build/namespaces)
using std::pair;
using boost::scoped_ptr;

const char *dat_lab="/home/mul/caffe-master/examples/2D_3D/new/info/train.data";
string data_db="/home/mul/caffe-master/examples/2D_3D/new/2D_3D_data_leveldb";
string label_db="/home/mul/caffe-master/examples/2D_3D/new/2D_3D_label_leveldb";
string root="/home/mul/caffe-master/examples/2D_3D/new/";
string path;

int main()
{

    //Create data DB
    scoped_ptr<db::DB> dat_db(db::GetDB("leveldb"));
    dat_db->Open(data_db, db::NEW);
    scoped_ptr<db::Transaction> dat_txn(dat_db->NewTransaction());

    //Create label DB
    scoped_ptr<db::DB> lab_db(db::GetDB("leveldb"));
    lab_db->Open(label_db, db::NEW);
    scoped_ptr<db::Transaction> lab_txn(lab_db->NewTransaction());

    //Storing to db
    Datum dat_datum,lab_datum;
    int count=0;

    std::ifstream infile(dat_lab);
    std::string filename;
    const char *dataname;
    int dataNum;
    int labelcount;
    QImage img;
    infile>>dataNum>>labelcount;
    LOG(INFO) << "A total of " << dataNum<< " images.";

    for (int line_id = 0; line_id < dataNum; ++line_id)
    {
        infile>>filename;
        path=root+filename;
        dataname=path.c_str();
        img.load(dataname);

        dat_datum.set_channels(1);
        dat_datum.set_height(img.height());
        dat_datum.set_width(img.width());
        dat_datum.clear_data();
        dat_datum.clear_float_data();

        int datum_channels = dat_datum.channels();
        int datum_height = dat_datum.height();
        int datum_width = dat_datum.width();
        int datum_size = datum_channels * datum_height * datum_width;
        std::string buffer(datum_size, ' ');
        const uchar* ptr = img.bits();
        int img_index = 0;
        for (int h = 0; h < datum_height; ++h)
        {

            for (int w = 0; w < datum_width; ++w)
            {
                for (int c = 0; c < datum_channels; ++c)
                {
                    int datum_index = (c * datum_height + h) * datum_width + w;
                    buffer[datum_index] = static_cast<char>(ptr[img_index++]);
                }
            }
        }
        dat_datum.set_data(buffer);


        lab_datum.set_channels(labelcount);
        lab_datum.set_height(1);
        lab_datum.set_width(1);
        lab_datum.clear_data();
        lab_datum.clear_float_data();
        for(int i=0;i<labelcount;++i)
        {
            float mid;
            infile>>mid;
            lab_datum.add_float_data(mid);
        }

        // sequential
        string key_str = caffe::format_int(line_id, 8);

        // Put in db
        string out;
        CHECK(dat_datum.SerializeToString(&out));
        dat_txn->Put(key_str, out);
        CHECK(lab_datum.SerializeToString(&out));
        lab_txn->Put(key_str, out);

        if (++count % 1000 == 0)
        {
            // Commit db
            dat_txn->Commit();
            dat_txn.reset(dat_db->NewTransaction());
            lab_txn->Commit();
            lab_txn.reset(lab_db->NewTransaction());
            LOG(INFO) << "Processed " << count << " files.";
        }
    }
    // write the last batch
    if (count % 1000 != 0)
    {
        dat_txn->Commit();
        lab_txn->Commit();
        LOG(INFO) << "Processed " << count << " files.";
    }
    return 0;
}

成功创建了两个LMDB,但是当我使用caffe来实现训练时,结果总是不对。损失层是欧几里得损失(EUCLIDEAN_LOSS),但是损失不能下降。我不知道创建两个LMDB的代码是否有误。谁能帮助我?无论如何感谢。


为什么在设置图像数据时要使用 dat_datum.set_data(buffer),而在标签上使用 lab_datum.add_float_data(mid)?我没有使用过 Datum C++ 接口,但是通过设置 lab_datum.set_channels(labelcount) 然后使用 add_float_data 方法是否会改变数据的大小,并最终将标签值设置在位置 3, 4, 5 而不是 0, 1, 2 - Shai
为什么不考虑使用HDF5输入来代替levelfb标签呢?可以参考这个答案 - Shai
这个方法有足够大的训练数据,以至于计算机的内存无法加载所有数据。这就是为什么我不接受hdf5的原因。我刚刚解决了这个问题,感谢你的回答。 - Frankie.Chen
首先,我的方法是正确的。但是当我使用已经训练好的网络进行测试时,由于我使用了不同的打开图片数据的方式,我得到了错误的答案。此外,如果方便的话,您能告诉我如何在caffe中使用多个hdf5文件吗?谢谢。 - Frankie.Chen
Caffe中的“HDF5Data”层通过一个文本文件作为“source”获取hdf5文件名列表,您可以有多个存储数据的hdf5文件,在“source”文件中列出它们,这样在训练期间Caffe会依次读取它们。 - Shai
显示剩余2条评论
1个回答

2
作为整体来说,你上面的代码是可以的,但是需要注意以下几点:
  1. 你的.cpp文件创建的是LEVELDB而不是LMDB,当然这不是导致问题的原因,两种类型都可以。
  2. 你的代码生成的“label LMDB”是N×3×1×1而不是Nx1x1x3(NumberxChannelxWidthxHeight)。
  3. 在使用小批量随机梯度下降进行学习任务时,据我所知,对训练数据进行洗牌非常有用,可以得到更优化的模型。我不确定你是否注意到了这一点,但至少你的cpp没有对“train.data”进行洗牌。
  4. 最重要的是,导致问题的原因很可能是网络中的数据层读取数据和标签lmdb/leveldb文件,因为你将标签分配给了datum的浮点数据,而caffe中的DataLayer实际上并不读取浮点数据(除非你使用自定义的数据层)。因此,请上传定义网络的prototxt文件,这样我们就可以找出问题所在。
最后,我添加了一个“MultiTaskData”层MultiTaskDataLayer,用于从datum中读取多标签进行多任务训练,你可以进行简单修改,将其添加到你的caffe中,并像这样使用:
    name: "AgeNet"
    layer {
        name: "Age"
        type: "MultiTaskData"
        top: "data"
        top: "age_label"
        top: "gender_label"
        data_param { 
            source: "age_gender_classification_0_60p_train_leveldb"   
            batch_size: 60 
            task_num: 2
            label_dimension: 1
            label_dimension: 1
        }
        transform_param {
            scale: 0.00390625
            crop_size: 60
            mirror: true
        }
        include:{ phase: TRAIN }
    }
    layer { 
        name: "cls_age" 
        type: "InnerProduct"
        bottom: "data"  
        top: "cls_age" 
        param {
            lr_mult: 1
            decay_mult: 1
        }
        param {
            lr_mult: 2
            decay_mult: 0
        }
        inner_product_param {
            num_output: 7
            weight_filler {
            type: "xavier"
            }    
        bias_filler {      
            type: "constant"
            }  
        }
    }
    layer {  
        name: "age_loss"  
        type: "SoftmaxWithLoss"  
        bottom: "cls_age" 
        bottom: "age_label"
        top: "age_loss"
        include:{ phase: TRAIN }
    }
    layer { 
        name: "cls_gender" 
        type: "InnerProduct"
        bottom: "data"  
        top: "cls_gender" 
        param {
            lr_mult: 1
            decay_mult: 1
        }
        param {
            lr_mult: 2
            decay_mult: 0
        }
        inner_product_param {
            num_output: 2
            weight_filler {
                type: "xavier"
            }    
            bias_filler {      
                type: "constant"
            }  
        }
    }
    layer {  
        name: "gender_loss"  
        type: "SoftmaxWithLoss"  
        bottom: "cls_gender" 
        bottom: "gender_label"
        top: "gender_loss"
        include:{ phase: TRAIN }
    }

感谢您的回答,我已经解决了我的问题。 - Frankie.Chen

网页内容由stack overflow 提供, 点击上面的
可以查看英文原文,
原文链接