spark运行中的java.lang.OutOfMemoryError: Java heap space错误
问题描述:我在执行我的spark代码过程中,出现了如标题所示的问题以下为我执行的主要代码:ss=e_Task_test.engine() diag_hos=l_patient.map(lambdax:(ss.get_hospital(x),ss.get_patient_diag(x)))dh_all=diag_hos.groupByKey().map(lambdax:(x[0],list(