Разбор CSV на несколько / вложенных типов bean с помощью OpenCSV?
у меня есть различные CSV, которые содержат некоторые стандартные столбцы и некоторые совершенно случайные поля:
firstname, lastname, dog_name, fav_hat, fav_color
bill,smith,fido,porkpie,blue
james,smith,rover,bowler,purple
firstname, lastname, car_type, floor_number
tom, collins, ford, 14
jim, jones, toyota, 120
поэтому я пытаюсь разобрать их лично.Class beans, который содержит firstname & lastname, тогда у меня есть второй класс, называемый PersonAttribute.класс на удержание...все остальное.
В bastic контур два класса:
class Person {
public String firstname;
public String lastname;
public List<PersonAttribute> attribs;
}
class PersonAttribute {
public Person p;
public String key; // header name, ex. 'car_type'
public String value; // column value, ex. 'ford'
}
Я использую функции CsvToBean в opencsv:
public static List<Person> parseToBeans(File csvFile, HashMap<String, String> mapStrategy, Class beanClass) throws IOException {
CSVReader reader = null;
try {
reader = new CSVReader(new BufferedReader(new FileReader(csvFile)));
HeaderColumnNameTranslateMappingStrategy<Person> strategy = new HeaderColumnNameTranslateMappingStrategy<>();
strategy.setType(beanClass);
strategy.setColumnMapping(mapStrategy);
final CsvToBean<Person> csv = new CsvToBean<Person>() {
@Override
protected Object convertValue(String value, PropertyDescriptor prop) throws InstantiationException, IllegalAccessException {
value = value.trim().replaceAll(" +", " ");
return super.convertValue(value, prop);
}
};
return csv.parse(strategy, reader);
}
...
однако я не уверен, как обращаться создание атрибута PersonAttribute.бобы класса, пока я разбираю csv для человека.фасоль класса. Я наткнулся этот пост и интересно, нужно ли мне переключиться на supercsv, чтобы легко справиться с тем, что я пытаюсь сделать?
1 ответов
вы, безусловно, можете достичь этого с помощью Super CSV.
можно использовать
CsvBeanReader
- который не поддерживает индексированное отображение, поэтому вам нужно создать вспомогательный метод в вашем bean, чтобы использовать егоCsvDozerBeanReader
- поддерживает индексированное отображение из коробки, поэтому будет делать именно то, что вы хотите (требуется недавно выпущенный Super CSV 2.1.0)
используя CsvBeanReader
если вы не хотите использовать Dozer и можете изменить свой класс bean, самый простой вариант-добавить фиктивный сеттер на свой bean, который CsvBeanReader
будет использоваться для заполнения атрибутов. Я предполагаю, что ваш Person
и PersonAttribute
бобы имеют открытый конструктор no-args и геттеры / сеттеры, определенные для каждого поля (это обязательно).
добавьте в свой Person
Боб:
public void setAddAttribute(PersonAttribute attribute){
if (attribs == null){
attribs = new ArrayList<PersonAttribute>();
}
attribs.add(attribute);
}
создать пользовательское ячейки процессор который будет заполнять PersonAttribute
С соответствующим ключом из заголовка CSV и значением из столбца CSV.
package org.supercsv.example;
import org.supercsv.cellprocessor.CellProcessorAdaptor;
import org.supercsv.util.CsvContext;
/**
* Creates a PersonAttribute using the corresponding header as the key.
*/
public class ParsePersonAttribute extends CellProcessorAdaptor {
private final String[] header;
public ParsePersonAttribute(final String[] header) {
this.header = header;
}
public Object execute(Object value, CsvContext context) {
if( value == null ) {
return null;
}
PersonAttribute attribute = new PersonAttribute();
// columns start at 1
attribute.setKey(header[context.getColumnNumber() - 1]);
attribute.setValue((String) value);
return attribute;
}
}
я думаю, что следующий пример говорит в основном для себя, но вот несколько вещей, которые я должен отметить:
мне пришлось использовать пользовательские настройки, потому что ваш CSV имел пробелы, которые не являются частью данных
мне пришлось собрать отображение полей и массивы процессоров ячеек динамически, поскольку ваши данные имеют неизвестное количество атрибутов (Эта настройка обычно не так сложна)
все сопоставления полей для атрибутов используют
addAttribute
, что соответствуетsetAddAttribute()
метод мы добавили к вашему beanя использовал наш пользовательский процессор ячеек для создания
PersonAttribute
bean для каждого столбца атрибута
вот код:
package org.supercsv.example;
import java.io.IOException;
import java.io.Reader;
import java.io.StringReader;
import org.supercsv.cellprocessor.Optional;
import org.supercsv.cellprocessor.constraint.NotNull;
import org.supercsv.cellprocessor.ift.CellProcessor;
import org.supercsv.io.CsvBeanReader;
import org.supercsv.io.ICsvBeanReader;
import org.supercsv.prefs.CsvPreference;
public class ReadWithCsvBeanReader {
private static final String CSV =
"firstname, lastname, dog_name, fav_hat, fav_color\n"
+ "bill,smith,fido,porkpie,blue\n"
+ "james,smith,rover,bowler,purple";
private static final String CSV2 =
"firstname, lastname, car_type, floor_number\n"
+ "tom, collins, ford, 14\n" + "jim, jones, toyota, 120";
// attributes start at element 2 of the header array
private static final int ATT_START_INDEX = 2;
// custom preferences required because CSV contains
spaces that aren't part of the data
private static final CsvPreference PREFS =
new CsvPreference.Builder(
CsvPreference.STANDARD_PREFERENCE)
.surroundingSpacesNeedQuotes(true).build();
public static void main(String[] args) throws IOException {
System.out.println("CsvBeanReader with first CSV input:");
readWithCsvBeanReader(new StringReader(CSV));
System.out.println("CsvBeanReader with second CSV input:");
readWithCsvBeanReader(new StringReader(CSV2));
}
private static void readWithCsvBeanReader(final Reader reader)
throws IOException {
ICsvBeanReader beanReader = null;
try {
beanReader = new CsvBeanReader(reader, PREFS);
final String[] header = beanReader.getHeader(true);
// set up the field mapping and processors dynamically
final String[] fieldMapping = new String[header.length];
final CellProcessor[] processors =
new CellProcessor[header.length];
for (int i = 0; i < header.length; i++) {
if (i < ATT_START_INDEX) {
// normal mappings
fieldMapping[i] = header[i];
processors[i] = new NotNull();
} else {
// attribute mappings
fieldMapping[i] = "addAttribute";
processors[i] =
new Optional(new ParsePersonAttribute(header));
}
}
Person person;
while ((person = beanReader.read(Person.class, fieldMapping,
processors)) != null) {
System.out.println(String.format(
"lineNo=%s, rowNo=%s, person=%s",
beanReader.getLineNumber(), beanReader.getRowNumber(),
person));
}
} finally {
if (beanReader != null) {
beanReader.close();
}
}
}
}
выход (я добавил toString()
методы для ваших бобов):
CsvBeanReader with first CSV input:
lineNo=2, rowNo=2, person=Person [firstname=bill, lastname=smith, attribs=[PersonAttribute [key=dog_name, value=fido], PersonAttribute [key=fav_hat, value=porkpie], PersonAttribute [key=fav_color, value=blue]]]
lineNo=3, rowNo=3, person=Person [firstname=james, lastname=smith, attribs=[PersonAttribute [key=dog_name, value=rover], PersonAttribute [key=fav_hat, value=bowler], PersonAttribute [key=fav_color, value=purple]]]
CsvBeanReader with second CSV input:
lineNo=2, rowNo=2, person=Person [firstname=tom, lastname=collins, attribs=[PersonAttribute [key=car_type, value=ford], PersonAttribute [key=floor_number, value=14]]]
lineNo=3, rowNo=3, person=Person [firstname=jim, lastname=jones, attribs=[PersonAttribute [key=car_type, value=toyota], PersonAttribute [key=floor_number, value=120]]]
Использование CsvDozerBeanReader
если вы не можете или не хотите изменять свой bean, я бы рекомендовал использовать CsvDozerBeanReader
на супер CSV бульдозер расширение project, поскольку он поддерживает вложенные и индексированные сопоставления полей. Проверьте некоторые примеры его использования здесь.
Ниже приведен пример использования CsvDozerBeanReader
. Вы заметите, что он практически идентичен CsvBeanReader
пример, но:
он использует другой читатель (duh!)
он использует индексированное отображение, например,
attribs[0]
он устанавливает отображение, вызывая
configureBeanMapping()
(вместо того, чтобы принимать массив строк наread()
методомCsvBeanReader
он также устанавливает некоторые намеки (подробнее об этом ниже)
код:
package org.supercsv.example;
import java.io.IOException;
import java.io.Reader;
import java.io.StringReader;
import org.supercsv.cellprocessor.Optional;
import org.supercsv.cellprocessor.constraint.NotNull;
import org.supercsv.cellprocessor.ift.CellProcessor;
import org.supercsv.io.dozer.CsvDozerBeanReader;
import org.supercsv.io.dozer.ICsvDozerBeanReader;
import org.supercsv.prefs.CsvPreference;
public class ReadWithCsvDozerBeanReader {
private static final String CSV =
"firstname, lastname, dog_name, fav_hat, fav_color\n"
+ "bill,smith,fido,porkpie,blue\n"
+ "james,smith,rover,bowler,purple";
private static final String CSV2 =
"firstname, lastname, car_type, floor_number\n"
+ "tom, collins, ford, 14\n"
+ "jim, jones, toyota, 120";
// attributes start at element 2 of the header array
private static final int ATT_START_INDEX = 2;
// custom preferences required because CSV contains spaces that aren't part of the data
private static final CsvPreference PREFS = new CsvPreference.Builder(CsvPreference.STANDARD_PREFERENCE)
.surroundingSpacesNeedQuotes(true).build();
public static void main(String[] args) throws IOException {
System.out.println("CsvDozerBeanReader with first CSV input:");
readWithCsvDozerBeanReader(new StringReader(CSV));
System.out.println("CsvDozerBeanReader with second CSV input:");
readWithCsvDozerBeanReader(new StringReader(CSV2));
}
private static void readWithCsvDozerBeanReader(final Reader reader) throws IOException {
ICsvDozerBeanReader beanReader = null;
try {
beanReader = new CsvDozerBeanReader(reader, PREFS);
final String[] header = beanReader.getHeader(true);
// set up the field mapping, processors and hints dynamically
final String[] fieldMapping = new String[header.length];
final CellProcessor[] processors = new CellProcessor[header.length];
final Class<?>[] hintTypes = new Class<?>[header.length];
for( int i = 0; i < header.length; i++ ) {
if( i < ATT_START_INDEX ) {
// normal mappings
fieldMapping[i] = header[i];
processors[i] = new NotNull();
} else {
// attribute mappings
fieldMapping[i] = String.format("attribs[%d]", i - ATT_START_INDEX);
processors[i] = new Optional(new ParsePersonAttribute(header));
hintTypes[i] = PersonAttribute.class;
}
}
beanReader.configureBeanMapping(Person.class, fieldMapping, hintTypes);
Person person;
while( (person = beanReader.read(Person.class, processors)) != null ) {
System.out.println(String.format("lineNo=%s, rowNo=%s, person=%s",
beanReader.getLineNumber(),
beanReader.getRowNumber(), person));
}
}
finally {
if( beanReader != null ) {
beanReader.close();
}
}
}
}
выход:
CsvDozerBeanReader with first CSV input:
lineNo=2, rowNo=2, person=Person [firstname=bill, lastname=smith, attribs=[PersonAttribute [key=dog_name, value=fido], PersonAttribute [key=fav_hat, value=porkpie], PersonAttribute [key=fav_color, value=blue]]]
lineNo=3, rowNo=3, person=Person [firstname=james, lastname=smith, attribs=[PersonAttribute [key=dog_name, value=rover], PersonAttribute [key=fav_hat, value=bowler], PersonAttribute [key=fav_color, value=purple]]]
CsvDozerBeanReader with second CSV input:
lineNo=2, rowNo=2, person=Person [firstname=tom, lastname=collins, attribs=[PersonAttribute [key=car_type, value=ford], PersonAttribute [key=floor_number, value=14]]]
lineNo=3, rowNo=3, person=Person [firstname=jim, lastname=jones, attribs=[PersonAttribute [key=car_type, value=toyota], PersonAttribute [key=floor_number, value=120]]]
собирая этот пример, я обнаружил ошибку с CsvDozerBeanReader
в Super CSV 2.0.1 при объединении процессор Cell (например, тот, который я создал в примере выше, чтобы проанализировать каждый ключ/значение атрибута person), с индексированным отображением, таким как:
"firstname","lastname","attribs[0]","attribs[1]"
я только что выпустил Super CSV 2.1.0, который исправляет это. Оказывается, Dozer нуждается в подсказке чтобы индексированное отображение работало правильно. Я не на 100% уверен, почему, так как он вполне способен создавать каждый PersonAttribute
и добавление его в правильный индекс, когда вы избавляетесь от пользовательского процессора ячеек и используете следующее (глубокое) отображение:
"firstname","lastname","attribs[0].value","attribs[1].value"
надеюсь, это поможет:)