优化 R 中大 df 的距离 distHaversine 模型
Posted
技术标签:
【中文标题】优化 R 中大 df 的距离 distHaversine 模型【英文标题】:Optimizing distance distHaversine model for large df in R 【发布时间】:2017-02-21 18:19:07 【问题描述】:我正在处理一个大型数据集,并尝试在具有 8GB RAM 的本地计算机上运行地理空间分析。看起来我已经超出了我机器的资源,我想知道我是否可以优化我的模型以便我可以在我的机器上运行它。
area <- data.frame(area = c('Baker Street','Bank'),
lat = c(51.522236,51.5134047),
lng = c(-0.157080, -0.08905843),
radius = c(100,2000)
)
stop <- data.frame(station = c('Angel','Barbican','Barons Court','Bayswater'),
lat = c(51.53253,51.520865,51.490281,51.51224),
lng = c(-0.10579,-0.097758,-0.214340,-0.187569),
postcode = c('EC1V','EC1A', 'W14', 'W2'))
library(geosphere)
datNew = lapply(1:nrow(area), function(i)
df = stop
df$dist = distHaversine(df[,c("lng", "lat")],
area[rep(i,nrow(df)), c('lng','lat')])
df$in_circle = ifelse(df$dist <= area[i, "radius"], "Yes", "No")
df$circle_id = area[i, "area"]
df
)
datNew = do.call(rbind, datNew)
require(dplyr)
datNew <- datNew %>%
group_by(station) %>%
slice(which.min(dist))
是否可以计算距离,然后在station
中通过station
找到最小距离,这样我最终不会将stations
的数量乘以area
的数量?或者是否有其他解决方案可以让我以更少的资源消耗方式运行它或拆分作业以使其适合 RAM?
【问题讨论】:
【参考方案1】:您是否尝试过将 gc() 放在 lapply 函数的末尾?它为下一次迭代释放内存空间。如果这没有帮助,请尝试明天回到这个答案,请回复:)
编辑:
我不知道你是否有这个想法,但你去吧:
library(geosphere)
library("plyr")
library("magrittr")
area <- data.frame(area = c('Baker Street','Bank'),
lat = c(51.522236,51.5134047),
lng = c(-0.157080, -0.08905843),
radius = c(100,2000)
)
stop <- data.frame(station = c('Angel','Barbican','Barons Court','Bayswater'),
lat = c(51.53253,51.520865,51.490281,51.51224),
lng = c(-0.10579,-0.097758,-0.214340,-0.187569),
postcode = c('EC1V','EC1A', 'W14', 'W2'))
## In the function below you take an area one by one and then save the station which at the minimal
## distance from the given area
min.dist <- ddply(area, ~area, function(xframe)
xframe <<- xframe
cat("Calculating minimum distance from area...", as.character(xframe$area), "\n")
dists <- distHaversine(xframe[, c("lat", "lng")], stop[ , c("lat", "lng")])
stop.min <- stop[which(min(dists)==dists), ]
stop.min$area <- xframe$area
return(stop.min)
gc()
)
min.dist # the new data frame
【讨论】:
我遇到的问题是函数创建的df
太大而无法进行分组,所以我想做一些计算到每个点的距离并找到逐点的最小距离,所以我不会创建大的df
,如果这有意义的话,我以后无法处理。或者也许有一个我没有想到的更好的解决方案?
工作就像一个魅力。感谢您的帮助!以上是关于优化 R 中大 df 的距离 distHaversine 模型的主要内容,如果未能解决你的问题,请参考以下文章