c++ 最小二乘法的SparseQR

wbgh16ku  于 2023-03-05  发布在  其他
关注(0)|答案(1)|浏览(224)

对于我正在构建的应用程序,我需要在大型数据集上运行线性回归以获得残差。例如,一个数据集的维度超过100万x 20 k。对于较小的数据集,我使用RcppArmadillo包中的fastLm-目前对这些数据集效果很好。随着时间的推移,这些数据集也将超过100万行。
我的解决方案是使用稀疏矩阵和特征值。我无法找到一个在RcppEigen中使用SparseQR的好例子。基于许多小时的阅读(例如rcpp-gallerystackoverflowrcpp-dev mailinglisteigen docsrcpp-gallerystackoverflow和许多我忘记但肯定读过的),我写了下面的代码片段;
(NB:我的第一个c++程序-请友好:)-欢迎任何改进的建议)

// [[Rcpp::depends(RcppEigen)]]
#include <RcppEigen.h>
using namespace Rcpp;
using namespace Eigen;

using Eigen::Map;
using Eigen::SparseMatrix;
using Eigen::MappedSparseMatrix;
using Eigen::VectorXd;
using Eigen::SimplicialCholesky;

// [[Rcpp::export]]
List sparseLm_eigen(const SEXP Xr, 
                    const NumericVector yr){
  
  typedef SparseMatrix<double>        sp_mat;
  typedef MappedSparseMatrix<double>  sp_matM;
  typedef Map<VectorXd>               vecM;
  typedef SimplicialCholesky<sp_mat>  solver;

  const sp_mat Xt(Rcpp::as<sp_matM>(Xr).adjoint());
  const VectorXd Xty(Xt * Rcpp::as<vecM>(yr));
  const solver Ch(Xt * Xt.adjoint());
  
  if(Ch.info() != Eigen::Success) return "failed";
  
  return List::create(Named("betahat") = Ch.solve(Xty));
}

例如,这适用于:

library(Matrix)
library(speedglm)
Rcpp::sourceCpp("sparseLm_eigen.cpp")

data("data1")
data1$fat1 <- factor(data1$fat1)
mm <- model.matrix(formula("y ~ fat1 + x1 + x2"), dat = data1)

sp_mm <- as(mm, "dgCMatrix")
y <- data1$y

res1 <- sparseLm_eigen(sp_mm, y)$betahat
res2 <- unname(coefficients(lm.fit(mm, y)))

abs(res1 - res2)

但是对于我的大数据集来说,它失败了(正如我所预料的)。我最初的意图是使用SparseQR作为求解器,但我不知道如何实现它。
所以我的问题是,有人能帮我用RcppEigen实现稀疏矩阵的QR分解吗?

我使用的溶液

  • 免责声明:* 我不知道它是否正确-它适用于我的特定问题,似乎提供了正确的结果。

根据@TomWenseleers的评论添加我的解,这里是。我不能让Eigen's LeastSquareConjugateGradient工作。我想是因为文档声明A'A必须是正定的。所以我没有求解A = bx,而是使用Eigen's Conjugate Gradient和对角预处理器求解A'A = A'bx。然后使用系数计算拟合值和残差。

#include <RcppEigen.h>
#include <Eigen/IterativeLinearSolvers>
// [[Rcpp::depends(RcppEigen)]]
// [[Rcpp::export]]
Rcpp::List sparse_cg(const Eigen::Map<Eigen::SparseMatrix<double> > &A,
                     const Eigen::Map<Eigen::VectorXd> &b,
                     const Eigen::Map<Eigen::VectorXd> &x0,
                     const int &maxiter,
                     const double &tol) {
    
  // Set-up the Conjugate Gradient solver
  Eigen::ConjugateGradient<Eigen::SparseMatrix<double>,
                           Eigen::Lower|Eigen::Upper,
                           Eigen::DiagonalPreconditioner<double> > cg;
  // Initialize solver
  cg.setMaxIterations(maxiter);
  cg.setTolerance(tol);
  cg.compute(A);

  // Solve system with guess (i.e. old solutions)
  Eigen::VectorXd coef = cg.solveWithGuess(b, x0);

  // Solver convergence stats
  int iter = cg.iterations();
  double err = cg.error();

  return Rcpp::List::create(Rcpp::Named("coefficients") = coef,
                            Rcpp::Named("itr") = iter,
                            Rcpp::Named("error") = err);
}
ru9i0ody

ru9i0ody1#

如何用Eigen编写稀疏求解器有点通用。这主要是因为稀疏求解器类设计得非常好。它们提供了guide explaining their sparse solver classes。由于问题集中在SparseQR上,文档指出初始化求解器需要两个参数:SparseMatrix类类型和OrderingMethods类,该类指示支持的填充减少排序方法。
考虑到这一点,我们可以提出以下建议:

// [[Rcpp::depends(RcppEigen)]]
#include <RcppEigen.h>
#include <Eigen/SparseQR>

// [[Rcpp::export]]
Rcpp::List sparseLm_eigen(const Eigen::MappedSparseMatrix<double> A, 
                          const Eigen::Map<Eigen::VectorXd> b){

  Eigen::SparseQR <Eigen::MappedSparseMatrix<double>, Eigen::COLAMDOrdering<int> > solver;
  solver.compute(A);
  if(solver.info() != Eigen::Success) {
    // decomposition failed
    return Rcpp::List::create(Rcpp::Named("status") = false);
  }
  Eigen::VectorXd x = solver.solve(b);
  if(solver.info() != Eigen::Success) {
    // solving failed
    return Rcpp::List::create(Rcpp::Named("status") = false);
  }

  return Rcpp::List::create(Rcpp::Named("status") = true,
                            Rcpp::Named("betahat") = x);
}

注意:这里我们创建一个列表,它总是传递一个命名的status变量,该变量应该被检查 * first *。这表明收敛是否发生在两个区域:分解和求解。如果所有的都检验通过,则我们传递betahat系数。
测试脚本:

library(Matrix)
library(speedglm)
Rcpp::sourceCpp("sparseLm_eigen.cpp")

data("data1")
data1$fat1 <- factor(data1$fat1)
mm <- model.matrix(formula("y ~ fat1 + x1 + x2"), dat = data1)

sp_mm <- as(mm, "dgCMatrix")
y <- data1$y

res1 <- sparseLm_eigen(sp_mm, y)
if(res1$status != TRUE){
    stop("convergence issue")
}
res1_coef = res1$betahat
res2_coef <- unname(coefficients(lm.fit(mm, y)))

cbind(res1_coef, res2_coef)

输出:

res1_coef    res2_coef
[1,]  1.027742926  1.027742926
[2,]  0.142334262  0.142334262
[3,]  0.044327457  0.044327457
[4,]  0.338274783  0.338274783
[5,] -0.001740012 -0.001740012
[6,]  0.046558506  0.046558506

相关问题