use of com.datastax.oss.dsbulk.runner.DataStaxBulkLoader in project dsbulk by datastax.
the class JsonConnectorEndToEndCCMIT method full_load_unload_using_urlfile.
@Test
void full_load_unload_using_urlfile() throws Exception {
List<String> args = new ArrayList<>();
args.add("load");
args.add("--connector.name");
args.add("json");
args.add("--connector.json.urlfile");
args.add(StringUtils.quoteJson(urlFile));
args.add("--schema.keyspace");
args.add(session.getKeyspace().map(CqlIdentifier::asInternal).orElseThrow(IllegalStateException::new));
args.add("--schema.table");
args.add("ip_by_country");
args.add("--schema.mapping");
args.add(IP_BY_COUNTRY_MAPPING_NAMED);
ExitStatus status = new DataStaxBulkLoader(addCommonSettings(args)).run();
assertStatus(status, STATUS_OK);
validateResultSetSize(24, "SELECT * FROM ip_by_country");
FileUtils.deleteDirectory(logDir);
args = new ArrayList<>();
args.add("unload");
args.add("--connector.name");
args.add("json");
args.add("--connector.json.url");
args.add(quoteJson(unloadDir));
args.add("--connector.json.maxConcurrentFiles");
args.add("1");
args.add("--schema.keyspace");
args.add(session.getKeyspace().map(CqlIdentifier::asInternal).orElseThrow(IllegalStateException::new));
args.add("--schema.table");
args.add("ip_by_country");
args.add("--schema.mapping");
args.add(IP_BY_COUNTRY_MAPPING_NAMED);
status = new DataStaxBulkLoader(addCommonSettings(args)).run();
assertStatus(status, STATUS_OK);
validateOutputFiles(24, unloadDir);
}
use of com.datastax.oss.dsbulk.runner.DataStaxBulkLoader in project dsbulk by datastax.
the class JsonConnectorEndToEndCCMIT method temporal_roundtrip.
/**
* Test for DAT-236.
*/
@Test
void temporal_roundtrip() throws IOException {
assumeTrue(ccm.getCassandraVersion().compareTo(V3) >= 0, "CQL type date is not compatible with C* < 3.0");
session.execute("DROP TABLE IF EXISTS temporals");
session.execute("CREATE TABLE IF NOT EXISTS temporals (key int PRIMARY KEY, vdate date, vtime time, vtimestamp timestamp)");
List<String> args = new ArrayList<>();
args.add("load");
args.add("--connector.name");
args.add("json");
args.add("--connector.json.url");
args.add(ClassLoader.getSystemResource("temporal.json").toExternalForm());
args.add("--codec.locale");
args.add("fr_FR");
args.add("--codec.timeZone");
args.add("Europe/Paris");
args.add("--codec.date");
args.add("cccc, d MMMM uuuu");
args.add("--codec.time");
args.add("HHmmssSSS");
args.add("--codec.timestamp");
args.add("ISO_ZONED_DATE_TIME");
args.add("--codec.unit");
args.add("SECONDS");
args.add("--schema.keyspace");
args.add(session.getKeyspace().map(CqlIdentifier::asInternal).orElseThrow(IllegalStateException::new));
args.add("--schema.table");
args.add("temporals");
args.add("--schema.mapping");
args.add("*=*");
ExitStatus loadStatus = new DataStaxBulkLoader(addCommonSettings(args)).run();
assertStatus(loadStatus, STATUS_OK);
checkTemporalsWritten(session);
FileUtils.deleteDirectory(logDir);
args = new ArrayList<>();
args.add("unload");
args.add("--connector.name");
args.add("json");
args.add("--connector.json.url");
args.add(quoteJson(unloadDir));
args.add("--codec.locale");
args.add("fr_FR");
args.add("--codec.timeZone");
args.add("Europe/Paris");
args.add("--codec.date");
args.add("cccc, d MMMM uuuu");
args.add("--codec.time");
args.add("HHmmssSSS");
args.add("--codec.timestamp");
args.add("ISO_ZONED_DATE_TIME");
args.add("--codec.unit");
args.add("SECONDS");
args.add("--connector.json.maxConcurrentFiles");
args.add("1");
args.add("--schema.keyspace");
args.add(session.getKeyspace().map(CqlIdentifier::asInternal).orElseThrow(IllegalStateException::new));
args.add("--schema.query");
args.add("SELECT key, vdate, vtime, vtimestamp FROM temporals");
ExitStatus unloadStatus = new DataStaxBulkLoader(addCommonSettings(args)).run();
assertStatus(unloadStatus, STATUS_OK);
checkTemporalsRead(unloadDir);
FileUtils.deleteDirectory(logDir);
// check we can load from the unloaded dataset
args = new ArrayList<>();
args.add("load");
args.add("--connector.name");
args.add("json");
args.add("--connector.json.url");
args.add(quoteJson(unloadDir));
args.add("--codec.locale");
args.add("fr_FR");
args.add("--codec.timeZone");
args.add("Europe/Paris");
args.add("--codec.date");
args.add("cccc, d MMMM uuuu");
args.add("--codec.time");
args.add("HHmmssSSS");
args.add("--codec.timestamp");
args.add("ISO_ZONED_DATE_TIME");
args.add("--codec.unit");
args.add("SECONDS");
args.add("--schema.keyspace");
args.add(session.getKeyspace().map(CqlIdentifier::asInternal).orElseThrow(IllegalStateException::new));
args.add("--schema.table");
args.add("temporals");
args.add("--schema.mapping");
args.add("*=*");
loadStatus = new DataStaxBulkLoader(addCommonSettings(args)).run();
assertStatus(loadStatus, STATUS_OK);
checkTemporalsWritten(session);
}
use of com.datastax.oss.dsbulk.runner.DataStaxBulkLoader in project dsbulk by datastax.
the class JsonConnectorEndToEndCCMIT method skip_test_load_unload.
/**
* Attempts to load and unload data, some of which will be unsuccessful.
*/
@Test
void skip_test_load_unload() throws Exception {
List<String> args = new ArrayList<>();
args.add("load");
args.add("--connector.name");
args.add("json");
args.add("--connector.json.url");
args.add(StringUtils.quoteJson(JsonUtils.JSON_RECORDS_SKIP));
args.add("--schema.keyspace");
args.add(session.getKeyspace().map(CqlIdentifier::asInternal).orElseThrow(IllegalStateException::new));
args.add("--schema.table");
args.add("ip_by_country");
args.add("--schema.mapping");
args.add(IP_BY_COUNTRY_MAPPING_NAMED);
args.add("--connector.json.skipRecords");
args.add("3");
args.add("--connector.json.maxRecords");
args.add("24");
args.add("--schema.allowMissingFields");
args.add("true");
ExitStatus status = new DataStaxBulkLoader(addCommonSettings(args)).run();
assertStatus(status, STATUS_COMPLETED_WITH_ERRORS);
validateResultSetSize(21, "SELECT * FROM ip_by_country");
validateNumberOfBadRecords(3);
validateExceptionsLog(3, "Source:", "mapping-errors.log");
FileUtils.deleteDirectory(logDir);
args = new ArrayList<>();
args.add("unload");
args.add("--connector.name");
args.add("json");
args.add("--connector.json.url");
args.add(quoteJson(unloadDir));
args.add("--connector.json.maxConcurrentFiles");
args.add("1");
args.add("--schema.keyspace");
args.add(session.getKeyspace().map(CqlIdentifier::asInternal).orElseThrow(IllegalStateException::new));
args.add("--schema.table");
args.add("ip_by_country");
args.add("--schema.mapping");
args.add(IP_BY_COUNTRY_MAPPING_NAMED);
status = new DataStaxBulkLoader(addCommonSettings(args)).run();
assertStatus(status, STATUS_OK);
validateOutputFiles(21, unloadDir);
}
use of com.datastax.oss.dsbulk.runner.DataStaxBulkLoader in project dsbulk by datastax.
the class JsonConnectorEndToEndCCMIT method full_load_unload_complex.
/**
* Attempts to load and unload complex types (Collections, UDTs, etc).
*
* @jira_ticket DAT-288
*/
@Test
void full_load_unload_complex() throws Exception {
assumeTrue(ccm.getCassandraVersion().compareTo(V2_1) >= 0, "UDTs are not compatible with C* < 2.1");
session.execute("DROP TABLE IF EXISTS complex");
session.execute("DROP TYPE IF EXISTS contacts");
session.execute("CREATE TYPE contacts (" + "f_tuple frozen<tuple<int, text, float, timestamp>>, " + "f_list frozen<list<timestamp>>" + ")");
session.execute("CREATE TABLE complex (" + "pk int PRIMARY KEY, " + "c_text text, " + "c_int int, " + "c_tuple frozen<tuple<int, text, float, timestamp>>, " + "c_map map<timestamp, varchar>," + "c_list list<timestamp>," + "c_set set<varchar>," + "c_udt frozen<contacts>)");
List<String> args = new ArrayList<>();
args.add("load");
args.add("--connector.name");
args.add("json");
args.add("--connector.json.url");
args.add(StringUtils.quoteJson(getClass().getResource("/complex.json")));
args.add("--connector.json.mode");
args.add("SINGLE_DOCUMENT");
args.add("--codec.nullStrings");
args.add("N/A");
args.add("--schema.keyspace");
args.add(session.getKeyspace().map(CqlIdentifier::asInternal).orElseThrow(IllegalStateException::new));
args.add("--schema.table");
args.add("complex");
ExitStatus status = new DataStaxBulkLoader(addCommonSettings(args)).run();
assertStatus(status, STATUS_OK);
assertComplexRows(session);
FileUtils.deleteDirectory(logDir);
args = new ArrayList<>();
args.add("unload");
args.add("--connector.name");
args.add("json");
args.add("--connector.json.url");
args.add(quoteJson(unloadDir));
args.add("--connector.json.mode");
args.add("SINGLE_DOCUMENT");
args.add("--connector.json.maxConcurrentFiles");
args.add("1");
args.add("--codec.nullStrings");
args.add("N/A");
args.add("--schema.keyspace");
args.add(session.getKeyspace().map(CqlIdentifier::asInternal).orElseThrow(IllegalStateException::new));
args.add("--schema.table");
args.add("complex");
status = new DataStaxBulkLoader(addCommonSettings(args)).run();
assertStatus(status, STATUS_OK);
// 2 documents + 2 lines for single document mode
validateOutputFiles(4, unloadDir);
args = new ArrayList<>();
args.add("load");
args.add("--connector.name");
args.add("json");
args.add("--connector.json.url");
args.add(quoteJson(unloadDir));
args.add("--connector.json.mode");
args.add("SINGLE_DOCUMENT");
args.add("--codec.nullStrings");
args.add("N/A");
args.add("--schema.keyspace");
args.add(session.getKeyspace().map(CqlIdentifier::asInternal).orElseThrow(IllegalStateException::new));
args.add("--schema.table");
args.add("complex");
status = new DataStaxBulkLoader(addCommonSettings(args)).run();
assertStatus(status, STATUS_OK);
assertComplexRows(session);
}
use of com.datastax.oss.dsbulk.runner.DataStaxBulkLoader in project dsbulk by datastax.
the class JsonConnectorEndToEndCCMIT method error_load_missing_primary_keys.
/**
* DAT-307: Test to validate that missing primary keys will fail to load.
*/
@Test
void error_load_missing_primary_keys() throws Exception {
session.execute("DROP TABLE IF EXISTS missing");
session.execute("CREATE TABLE IF NOT EXISTS missing (pk varchar, cc varchar, v varchar, PRIMARY KEY(pk, cc))");
List<String> args = new ArrayList<>();
args.add("load");
args.add("--connector.name");
args.add("json");
args.add("--connector.json.url");
args.add(StringUtils.quoteJson(ClassLoader.getSystemResource("missing.json")));
args.add("--schema.keyspace");
args.add(session.getKeyspace().map(CqlIdentifier::asInternal).orElseThrow(IllegalStateException::new));
args.add("--schema.table");
args.add("missing");
args.add("--connector.json.mode");
args.add("SINGLE_DOCUMENT");
args.add("--schema.allowMissingFields");
args.add("true");
ExitStatus status = new DataStaxBulkLoader(addCommonSettings(args)).run();
assertThat(status).isEqualTo(STATUS_COMPLETED_WITH_ERRORS);
validateNumberOfBadRecords(4);
validateExceptionsLog(1, "Primary key column pk cannot be set to null", "mapping-errors.log");
validateExceptionsLog(1, "Primary key column cc cannot be set to null", "mapping-errors.log");
validateExceptionsLog(1, "Primary key column pk cannot be left unset", "mapping-errors.log");
validateExceptionsLog(1, "Primary key column cc cannot be left unset", "mapping-errors.log");
validateResultSetSize(0, "SELECT * FROM missing");
}
Aggregations