Tag: csv

如何读取大量的csv文件并将它们写入xls的一部分。 用phpexcel文件

我有一个5 csv文件,我将转换成一个Excel文件。 我需要这个,因为我必须将它们保存为我的格式,如图像和标题。 现在,我正在使用phpexcel。 这是我的代码 public function parse_csv_to_excel() { $gaug = FCPATH . "./assets/uploads/EGT_GAUG.CSV"; /*Will become a sheet named : gauge*/ $in = FCPATH . "./assets/uploads/EGT_IN.CSV"; /*Will become a sheet named : in_record*/ $out = FCPATH . "./assets/uploads/EGT_OUT.CSV"; /*Will become a sheet named : out_record*/ $stok = FCPATH . "./assets/uploads/EGT_STOK.CSV"; /*Will become a sheet named […]

用Excel打开带有前导零的csv而不剥离

我正在创build一个包含数据的csv文件,但用Excel打开MS时,所有前导零都被剥离了。 我应该写在CSV文件,以防止发生? 我的代码的一部分 for (int i=0; i < rows.size(); i++) { Object[] row = (Object[]) rows.get(i); bufferedWriter.write(row[0]); bufferedWriter.write(";" + row[1]); bufferedWriter.write(";" + row[2]); bufferedWriter.write(";" + row[3]); bufferedWriter.write(";" + row[4]); if(row[4].startsWith("0")){ //I want to add something here tp prevent that to happen. } bufferedWriter.write(";" + row[5]); bufferedWriter.write(";" + row[6]); try { bufferedWriter.write(";" + DF.format(row[7])); } catch […]

如何将RData文件中的内容导出到Excel / csv

我对R编程不熟悉。我有一个testing数据集,它是一个RData文件。我如何将它导出到Excel工作表来查看列数据。

Java CSV写作

我目前正试图写入数据到excel的报告。 我可以将数据写入csv文件,但是它不会以我想要的顺序在Excel中出现。 我需要在最佳和最糟糕的情况下在每列中打印数据,而不是在平均值下打印。 这里是相关的代码,任何帮助将不胜感激: String [] Fitness = "Average fitness#Worst fitness #Best Fitness".split("#"); writer.writeNext(Fitness); //takes data from average fitness and stores as an int int aFit = myPop.individuals[25].getFitness(); //converts int to string String aFit1 = Integer.toString(aFit); //converts string to string array String aFit2 [] = aFit1.split(" "); //writes to csv writer.writeNext(aFit2); //String [] nextCol = […]

完整的数据列

我已经从SQL数据库导出数据。 其中一列包含19/09/2016 05:58:07格式的时间戳。 但是,当导出为CSV时,我在列中获得的格式是58:07。 请告诉我如何去做

Python将多个不等列表写入Excel文件

我有多个列表 ANNA=(1, 2, 3, 4) MAE=(1,2) CEL=(1,2,3,4,5,6,7) 我想写一个excel或csv文件格式,看起来像这样: 当我使用csv writerow时,我需要使用writerow ,这样值不会在excel中被截断。 没关系,但是另一列还没有出现。 我使用python3.x所以izip不起作用我猜测因为我试过了。 我尝试了pandas和DataFrame但是列的长度必须相同,我的数据很大,我不知道如何将NaN放在我的缺失值上。 此外,我想知道是否有一种方法,而不是取代NaN来平衡我的列它看起来不好。 提前致谢!

为Excel生成CSV文件,如何在值中包含换行符

我需要为Excel生成一个文件,这个文件中的一些值包含多行。 那里还有非英文文本,所以文件必须是Unicode。 我现在生成的文件看起来像这样:(在UTF8中,非英文文本混合在一起,并有很多行) Header1,Header2,Header3 Value1,Value2,"Value3 Line1 Value3 Line2" 注意多行值用双引号引起来,每行换行符都是正常的。 根据我在网上发现的这个应该工作,但它不,至less没有赢得Excel 2007和UTF8文件,Excel将第三行作为数据的第二行而不是作为第一个数据行的第二行。 这必须在我的客户的机器上运行,我无法控制他们的Excel版本,所以我需要一个可以在Excel 2000及更高版本中使用的解决scheme。 谢谢 编辑:我解决了我的问题,有两个CSV选项,一个用于Excel(Unicode,制表符分隔,字段中没有换行符),另一个用于世界其他地方(UTF8,标准CSV)。 不是我正在寻找,但至less它的作品(到目前为止)

Excel Power查询date格式问题

我正在进行我的第一个项目,我必须从10个独立的数据logging器中分析温度/湿度读数。 我已经将10个数据logging器读数导出到10个.csv文件,我试图使用Excel电源查询来引用10个.csv文件中的每一个,以便在Excel摘要文件中获取最小/最大/平均读数。 除了在.csv文件中导出的date列(文本types)之外,所有内容都很好。 31:40.0 41:40.0 51:40.0 这是他们给出的格式,如果我在Excel中打开(并更改格式)转换为: 8/22/2017 1:31:40 PM 8/22/2017 1:41:40 PM 8/22/2017 1:51:40 PM 但是我不知道如何将查询编辑器中的这个date列转换成我可以在我的excel汇总文件中使用的东西。 在电源查询中,我尝试过改变数据types,并用公式(DateTime.FromText)添加自定义列,但目前为止似乎没有为我工作。 有其他人处理这种情况? 为了解决这个问题,我应该研究哪些步骤或主题? 谢谢大家!

用于循环检查没有空值的单元格和追加

新的Python编码器在这里。 我想摆脱数据行,并创build一个新的数据列表,其中任何单元格为空(或空)不会被添加到新列表中。 这是我的代码: chippedlist=[] for line in stringlist: #for each row of data in datafile chippedline=[] inc=0 for cell in line: #for each cell in one row of data inc+=1 if inc == 13 and len(cell)== 0: chippedline=[] break else: if cell == cell[0]: firstcell=cell[1:] chippedline.append(firstcell) if cell != cell[0] and cell != cell[-1]: chippedcell=cell[2:-1] […]

在Linux中从Excel数据透视表电子表格中提取数据

我有一个基于数据透视表的Excel电子表格,它定期更新(每月)并上传到我的服务器(由一个非常犹豫改变输出内容的组所产生)。 我想能够编写一个脚本,我可以运行通过cron作业来处理和加载数据透视表的原始数据到我的数据库。 但是,我无法弄清楚如何在不手动进入windows的情况下获取底层数据,在excel中打开文件,双击总计单元格,获得一个包含所有填充该单元格的原始数据的表单,并将该表保存为csv,然后可以通过某种语言(我的情况python)加载到我的数据库。 看起来他们应该是一些脚本化的方式来提取基础数据。 我只有linux机器(在虚拟机上运行windows / office;但我更喜欢不涉及windows的解决scheme)。 我熟悉像xls2csv(不访问原始数据)的工具,并使用像python-unoconv这样的工具来编辑来自python的openoffice文档。 但是,即使手动使用OpenOffice,我也没有办法获取底层数据。 编辑:花了好几个小时没有取得任何进展(发布之前),我没有开始做一些通过unconv转换为ODS,可能会用python-odf来提取最后一个表(称为“DPCache”)。 所以现在的问题是把ODS中的表格转换成CSV格式; 这对我来说不应该太难(尽pipe非常感谢帮助)。