IGNITE-10449: Fix javadoc and typos
authorAnton Dmitriev <dmitrievanthony@gmail.com>
Thu, 29 Nov 2018 15:05:49 +0000 (18:05 +0300)
committerYury Babak <ybabak@gridgain.com>
Thu, 29 Nov 2018 15:05:49 +0000 (18:05 +0300)
This closes #5526

29 files changed:
modules/ml/src/main/java/org/apache/ignite/ml/composition/boosting/convergence/ConvergenceChecker.java
modules/ml/src/main/java/org/apache/ignite/ml/composition/boosting/convergence/mean/MeanAbsValueConvergenceChecker.java
modules/ml/src/main/java/org/apache/ignite/ml/composition/boosting/convergence/simple/ConvergenceCheckerStub.java
modules/ml/src/main/java/org/apache/ignite/ml/dataset/DatasetFactory.java
modules/ml/src/main/java/org/apache/ignite/ml/dataset/PartitionDataBuilder.java
modules/ml/src/main/java/org/apache/ignite/ml/dataset/UpstreamTransformerChain.java
modules/ml/src/main/java/org/apache/ignite/ml/dataset/impl/cache/util/ComputeUtils.java
modules/ml/src/main/java/org/apache/ignite/ml/dataset/impl/local/LocalDatasetBuilder.java
modules/ml/src/main/java/org/apache/ignite/ml/environment/parallelism/DefaultParallelismStrategy.java
modules/ml/src/main/java/org/apache/ignite/ml/naivebayes/gaussian/GaussianNaiveBayesModel.java
modules/ml/src/main/java/org/apache/ignite/ml/naivebayes/gaussian/GaussianNaiveBayesSumsHolder.java
modules/ml/src/main/java/org/apache/ignite/ml/naivebayes/gaussian/GaussianNaiveBayesTrainer.java
modules/ml/src/main/java/org/apache/ignite/ml/pipeline/Pipeline.java
modules/ml/src/main/java/org/apache/ignite/ml/preprocessing/standardscaling/StandardScalerTrainer.java
modules/ml/src/main/java/org/apache/ignite/ml/selection/cv/CrossValidationResult.java
modules/ml/src/main/java/org/apache/ignite/ml/trainers/TrainerTransformers.java
modules/ml/src/main/java/org/apache/ignite/ml/tree/DecisionTree.java
modules/ml/src/main/java/org/apache/ignite/ml/tree/impurity/ImpurityMeasureCalculator.java
modules/ml/src/test/java/org/apache/ignite/ml/composition/predictionsaggregator/OnMajorityPredictionsAggregatorTest.java
modules/ml/src/test/java/org/apache/ignite/ml/math/primitives/vector/AbstractVectorTest.java
modules/ml/src/test/java/org/apache/ignite/ml/math/primitives/vector/VectorAttributesTest.java
modules/ml/src/test/java/org/apache/ignite/ml/math/primitives/vector/VectorFoldMapTest.java
modules/ml/src/test/java/org/apache/ignite/ml/math/primitives/vector/VectorImplementationsTest.java
modules/ml/src/test/java/org/apache/ignite/ml/naivebayes/gaussian/GaussianNaiveBayesModelTest.java
modules/ml/src/test/java/org/apache/ignite/ml/naivebayes/gaussian/GaussianNaiveBayesTrainerTest.java
modules/ml/src/test/java/org/apache/ignite/ml/preprocessing/standardscaling/StandardScalerPreprocessorTest.java
modules/ml/src/test/java/org/apache/ignite/ml/preprocessing/standardscaling/StandardScalerTrainerTest.java
modules/ml/src/test/java/org/apache/ignite/ml/regressions/linear/LinearRegressionLSQRTrainerTest.java
modules/ml/src/test/java/org/apache/ignite/ml/trainers/BaggingTest.java

index 3f6e8ca..88841e2 100644 (file)
@@ -67,7 +67,7 @@ public abstract class ConvergenceChecker<K, V> implements Serializable {
      * @param datasetBuilder Dataset builder.
      * @param featureExtractor Feature extractor.
      * @param lbExtractor Label extractor.
-     * @param precision
+     * @param precision Precision.
      */
     public ConvergenceChecker(long sampleSize,
         IgniteFunction<Double, Double> externalLbToInternalMapping, Loss loss,
index 7340bfa..82b194b 100644 (file)
@@ -41,7 +41,7 @@ public class MeanAbsValueConvergenceChecker<K,V> extends ConvergenceChecker<K,V>
     private static final long serialVersionUID = 8534776439755210864L;
 
     /**
-     * Creates an intance of MeanAbsValueConvergenceChecker.
+     * Creates an instance of MeanAbsValueConvergenceChecker.
      *
      * @param sampleSize Sample size.
      * @param externalLbToInternalMapping External label to internal mapping.
index 716d04e..98cfbe1 100644 (file)
@@ -40,7 +40,7 @@ public class ConvergenceCheckerStub<K,V> extends ConvergenceChecker<K,V> {
     private static final long serialVersionUID = 8534776439755210864L;
 
     /**
-     * Creates an intance of ConvergenceCheckerStub.
+     * Creates an instance of ConvergenceCheckerStub.
      *
      * @param sampleSize Sample size.
      * @param externalLbToInternalMapping External label to internal mapping.
index ffd3136..1623a2b 100644 (file)
@@ -173,7 +173,7 @@ public class DatasetFactory {
      * @param datasetBuilder Dataset builder.
      * @param partCtxBuilder Partition {@code context} builder.
      * @param featureExtractor Feature extractor used to extract features and build {@link SimpleLabeledDatasetData}.
-     * @param lbExtractor Label extractor used to extract labels and buikd {@link SimpleLabeledDatasetData}.
+     * @param lbExtractor Label extractor used to extract labels and build {@link SimpleLabeledDatasetData}.
      * @param <K> Type of a key in {@code upstream} data.
      * @param <V> Type of a value in {@code upstream} data.
      * @param <C> Type of a partition {@code context}.
@@ -198,7 +198,7 @@ public class DatasetFactory {
      * @param upstreamCache Ignite Cache with {@code upstream} data.
      * @param partCtxBuilder Partition {@code context} builder.
      * @param featureExtractor Feature extractor used to extract features and build {@link SimpleLabeledDatasetData}.
-     * @param lbExtractor Label extractor used to extract labels and buikd {@link SimpleLabeledDatasetData}.
+     * @param lbExtractor Label extractor used to extract labels and build {@link SimpleLabeledDatasetData}.
      * @param <K> Type of a key in {@code upstream} data.
      * @param <V> Type of a value in {@code upstream} data.
      * @param <C> Type of a partition {@code context}.
@@ -262,7 +262,7 @@ public class DatasetFactory {
      *
      * @param datasetBuilder Dataset builder.
      * @param featureExtractor Feature extractor used to extract features and build {@link SimpleLabeledDatasetData}.
-     * @param lbExtractor Label extractor used to extract labels and buikd {@link SimpleLabeledDatasetData}.
+     * @param lbExtractor Label extractor used to extract labels and build {@link SimpleLabeledDatasetData}.
      * @param <K> Type of a key in {@code upstream} data.
      * @param <V> Type of a value in {@code upstream} data.
      * @return Dataset.
@@ -286,7 +286,7 @@ public class DatasetFactory {
      * @param ignite Ignite instance.
      * @param upstreamCache Ignite Cache with {@code upstream} data.
      * @param featureExtractor Feature extractor used to extract features and build {@link SimpleLabeledDatasetData}.
-     * @param lbExtractor Label extractor used to extract labels and buikd {@link SimpleLabeledDatasetData}.
+     * @param lbExtractor Label extractor used to extract labels and build {@link SimpleLabeledDatasetData}.
      * @param <K> Type of a key in {@code upstream} data.
      * @param <V> Type of a value in {@code upstream} data.
      * @return Dataset.
@@ -359,7 +359,7 @@ public class DatasetFactory {
      * @param partitions Number of partitions {@code upstream} {@code Map} will be divided on.
      * @param partCtxBuilder Partition {@code context} builder.
      * @param featureExtractor Feature extractor used to extract features and build {@link SimpleLabeledDatasetData}.
-     * @param lbExtractor Label extractor used to extract labels and buikd {@link SimpleLabeledDatasetData}.
+     * @param lbExtractor Label extractor used to extract labels and build {@link SimpleLabeledDatasetData}.
      * @param <K> Type of a key in {@code upstream} data.
      * @param <V> Type of a value in {@code upstream} data.
      * @param <C> Type of a partition {@code context}.
index 54c7611..106084b 100644 (file)
@@ -53,6 +53,18 @@ public interface PartitionDataBuilder<K, V, C extends Serializable, D extends Au
      */
     public D build(Iterator<UpstreamEntry<K, V>> upstreamData, long upstreamDataSize, C ctx);
 
+    /**
+     * Builds a new partition {@code data} from a partition {@code upstream} data and partition {@code context}.
+     * Important: there is no guarantee that there will be no more than one UpstreamEntry with given key,
+     * UpstreamEntry should be thought rather as a container saving all data from upstream, but omitting uniqueness
+     * constraint. This constraint is omitted to allow upstream data transformers in {@link DatasetBuilder} replicating
+     * entries. For example it can be useful for bootstrapping.
+     *
+     * @param upstreamData Partition {@code upstream} data.
+     * @param upstreamDataSize Partition {@code upstream} data size.
+     * @param ctx Partition {@code context}.
+     * @return Partition {@code data}.
+     */
     public default D build(Stream<UpstreamEntry<K, V>> upstreamData, long upstreamDataSize, C ctx) {
         return build(upstreamData.iterator(), upstreamDataSize, ctx);
     }
index dc83926..3ad6446 100644 (file)
@@ -103,9 +103,8 @@ public class UpstreamTransformerChain<K, V> implements Serializable {
 
         Stream<UpstreamEntry<K, V>> res = upstream;
 
-        for (UpstreamTransformer<K, V> kvUpstreamTransformer : list) {
+        for (UpstreamTransformer<K, V> kvUpstreamTransformer : list)
             res = kvUpstreamTransformer.transform(rnd, res);
-        }
 
         return res;
     }
index 6646e89..4f18a18 100644 (file)
@@ -206,7 +206,7 @@ public class ComputeUtils {
     /**
      * Remove data from local cache by Dataset ID.
      *
-     * @param ignite Ingnite instance.
+     * @param ignite Ignite instance.
      * @param datasetId Dataset ID.
      */
     public static void removeData(Ignite ignite, UUID datasetId) {
index ce909ff..2514f3e 100644 (file)
@@ -111,9 +111,9 @@ public class LocalDatasetBuilder<K, V> implements DatasetBuilder<K, V> {
             }
 
             Iterator<UpstreamEntry<K, V>> iter;
-            if (upstreamTransformers.isEmpty()) {
+            if (upstreamTransformers.isEmpty())
                 iter = new IteratorWindow<>(firstKeysIter, k -> k, cnt);
-            }
+
             else {
                 iter = upstreamTransformers.transform(
                     Utils.asStream(new IteratorWindow<>(firstKeysIter, k -> k, cnt))).iterator();
@@ -125,9 +125,8 @@ public class LocalDatasetBuilder<K, V> implements DatasetBuilder<K, V> {
                 iter1 = upstreamTransformers.transform(
                     Utils.asStream(new IteratorWindow<>(secondKeysIter, k -> k, cnt))).iterator();
             }
-            else {
+            else
                 iter1 = new IteratorWindow<>(secondKeysIter, k -> k, cnt);
-            }
 
             D data = cnt > 0 ? partDataBuilder.build(
                 iter1,
index ce2ca50..66d2fdb 100644 (file)
@@ -44,6 +44,7 @@ public class DefaultParallelismStrategy implements ParallelismStrategy {
      * @param <T>
      */
     public static class FutureWrapper<T> implements Promise<T> {
+        /** */
         private final Future<T> f;
 
         /**
index 985d9fe..66c97b3 100644 (file)
@@ -38,7 +38,7 @@ public class GaussianNaiveBayesModel implements Model<Vector, Double>, Exportabl
     private final double[] classProbabilities;
     /** Labels. */
     private final double[] labels;
-    /** Feature sum, squared sum and cound per label. */
+    /** Feature sum, squared sum and count per label. */
     private final GaussianNaiveBayesSumsHolder sumsHolder;
 
     /**
@@ -66,7 +66,7 @@ public class GaussianNaiveBayesModel implements Model<Vector, Double>, Exportabl
     @Override public Double apply(Vector vector) {
         int k = classProbabilities.length;
 
-        double maxProbapility = .0;
+        double maxProbability = .0;
         int max = 0;
 
         for (int i = 0; i < k; i++) {
@@ -76,9 +76,9 @@ public class GaussianNaiveBayesModel implements Model<Vector, Double>, Exportabl
                 double g = gauss(x, means[i][j], variances[i][j]);
                 p *= g;
             }
-            if (p > maxProbapility) {
+            if (p > maxProbability) {
                 max = i;
-                maxProbapility = p;
+                maxProbability = p;
             }
         }
         return labels[max];
index 735bbd1..331e11f 100644 (file)
@@ -21,7 +21,7 @@ import java.util.HashMap;
 import java.util.Map;
 import org.apache.ignite.ml.math.util.MapUtil;
 
-/** Service class is used to calculate means and vaiances */
+/** Service class is used to calculate means and variances. */
 class GaussianNaiveBayesSumsHolder implements Serializable, AutoCloseable {
     /** Serial version uid. */
     private static final long serialVersionUID = 1L;
@@ -42,9 +42,9 @@ class GaussianNaiveBayesSumsHolder implements Serializable, AutoCloseable {
 
     /** In-place operation. Sums {@code arr2} to {@code arr1} element to element. */
     private double[] sum(double[] arr1, double[] arr2) {
-        for (int i = 0; i < arr1.length; i++) {
+        for (int i = 0; i < arr1.length; i++)
             arr1[i] += arr2[i];
-        }
+
         return arr1;
     }
 
index 1c1df83..7ee423d 100644 (file)
@@ -31,13 +31,13 @@ import org.apache.ignite.ml.trainers.SingleLabelDatasetTrainer;
 /**
  * Trainer for the naive Bayes classification model. The trainer calculates prior probabilities from the input dataset.
  * Prior probabilities can be also set by {@code setPriorProbabilities} or {@code withEquiprobableClasses}. If {@code
- * equiprobableClasses} is set, the probalilities of all classes will be {@code 1/k}, where {@code k} is classes count.
+ * equiprobableClasses} is set, the probabilities of all classes will be {@code 1/k}, where {@code k} is classes count.
  */
 public class GaussianNaiveBayesTrainer extends SingleLabelDatasetTrainer<GaussianNaiveBayesModel> {
-
-    /* Preset prior probabilities. */
+    /** Preset prior probabilities. */
     private double[] priorProbabilities;
-    /* Sets equivalent probability for all classes. */
+
+    /** Sets equivalent probability for all classes. */
     private boolean equiprobableClasses;
 
     /**
@@ -87,9 +87,9 @@ public class GaussianNaiveBayesTrainer extends SingleLabelDatasetTrainer<Gaussia
                         sqSum = new double[features.size()];
                         res.featureSquaredSumsPerLbl.put(label, sqSum);
                     }
-                    if (!res.featureCountersPerLbl.containsKey(label)) {
+                    if (!res.featureCountersPerLbl.containsKey(label))
                         res.featureCountersPerLbl.put(label, 0);
-                    }
+
                     res.featureCountersPerLbl.put(label, res.featureCountersPerLbl.get(label) + 1);
 
                     toMeans = res.featureSumsPerLbl.get(label);
@@ -110,9 +110,8 @@ public class GaussianNaiveBayesTrainer extends SingleLabelDatasetTrainer<Gaussia
                     return a;
                 return a.merge(b);
             });
-            if (mdl != null && mdl.getSumsHolder() != null) {
+            if (mdl != null && mdl.getSumsHolder() != null)
                 sumsHolder = sumsHolder.merge(mdl.getSumsHolder());
-            }
 
             List<Double> sortedLabels = new ArrayList<>(sumsHolder.featureCountersPerLbl.keySet());
             sortedLabels.sort(Double::compareTo);
@@ -139,16 +138,15 @@ public class GaussianNaiveBayesTrainer extends SingleLabelDatasetTrainer<Gaussia
                     variances[lbl][i] = (sqSum[i] - sum[i] * sum[i] / count) / count;
                 }
 
-                if (equiprobableClasses) {
+                if (equiprobableClasses)
                     classProbabilities[lbl] = 1. / labelCount;
-                }
+
                 else if (priorProbabilities != null) {
                     assert classProbabilities.length == priorProbabilities.length;
                     classProbabilities[lbl] = priorProbabilities[lbl];
                 }
-                else {
+                else
                     classProbabilities[lbl] = (double)count / datasetSize;
-                }
 
                 labels[lbl] = label;
                 ++lbl;
index ba5740e..8bfcb34 100644 (file)
@@ -47,7 +47,7 @@ public class Pipeline<K, V, R> {
     /** Label extractor. */
     private IgniteBiFunction<K, V, Double> lbExtractor;
 
-    /** Prerpocessor stages. */
+    /** Preprocessor stages. */
     private List<PreprocessingTrainer> preprocessors = new ArrayList<>();
 
     /** Final trainer stage. */
index 3661772..5147b05 100644 (file)
@@ -44,8 +44,8 @@ public class StandardScalerTrainer<K, V> implements PreprocessingTrainer<K, V, V
 
         for (int i = 0; i < n; i++) {
             mean[i] = standardScalerData.sum[i] / cnt;
-            double variace = (standardScalerData.squaredSum[i] - Math.pow(standardScalerData.sum[i], 2) / cnt) / cnt;
-            sigma[i] = Math.sqrt(variace);
+            double variance = (standardScalerData.squaredSum[i] - Math.pow(standardScalerData.sum[i], 2) / cnt) / cnt;
+            sigma[i] = Math.sqrt(variance);
         }
         return new StandardScalerPreprocessor<>(mean, sigma, basePreprocessor);
     }
index 55c20be..6f11eb6 100644 (file)
@@ -35,7 +35,7 @@ public class CrossValidationResult {
     /**
      * Scoring board.
      * The key is map of hyper parameters and its values,
-     * the value is score result associated with set of hyper paramters presented in the key.
+     * the value is score result associated with set of hyper parameters presented in the key.
      */
     private Map<Map<String, Double>, double[]> scoringBoard = new HashMap<>();
 
@@ -107,7 +107,7 @@ public class CrossValidationResult {
      * Gets the Scoring Board.
      *
      * The key is map of hyper parameters and its values,
-     * the value is score result associated with set of hyper paramters presented in the key.
+     * the value is score result associated with set of hyper parameters presented in the key.
      *
      * @return The Scoring Board.
      */
index 4f11327..05504c3 100644 (file)
@@ -190,9 +190,8 @@ public class TrainerTransformers {
         List<IgniteSupplier<M>> tasks = new ArrayList<>();
         List<IgniteBiFunction<K, V, Vector>> extractors = new ArrayList<>();
         if (mappings != null) {
-            for (int[] mapping : mappings) {
+            for (int[] mapping : mappings)
                 extractors.add(wrapExtractor(extractor, mapping));
-            }
         }
 
         for (int i = 0; i < ensembleSize; i++) {
@@ -212,9 +211,8 @@ public class TrainerTransformers {
 
         // If we need to do projection, do it.
         if (mappings != null) {
-            for (int i = 0; i < models.size(); i++) {
+            for (int i = 0; i < models.size(); i++)
                 models.get(i).setMapping(getProjector(mappings.get(i)));
-            }
         }
 
         double learningTime = (double)(System.currentTimeMillis() - startTs) / 1000.0;
@@ -245,9 +243,9 @@ public class TrainerTransformers {
     public static IgniteFunction<Vector, Vector> getProjector(int[] mapping) {
         return v -> {
             Vector res = VectorUtils.zeroes(mapping.length);
-            for (int i = 0; i < mapping.length; i++) {
+            for (int i = 0; i < mapping.length; i++)
                 res.set(i, v.get(mapping[i]));
-            }
+
             return res;
         };
     }
@@ -266,9 +264,9 @@ public class TrainerTransformers {
         int[] featureMapping) {
         return featureExtractor.andThen((IgniteFunction<Vector, Vector>)featureValues -> {
             double[] newFeaturesValues = new double[featureMapping.length];
-            for (int i = 0; i < featureMapping.length; i++) {
+            for (int i = 0; i < featureMapping.length; i++)
                 newFeaturesValues[i] = featureValues.get(featureMapping[i]);
-            }
+
             return VectorUtils.of(newFeaturesValues);
         });
     }
index b40ca93..482c938 100644 (file)
@@ -297,7 +297,7 @@ public abstract class DecisionTree<T extends ImpurityMeasure<T>> extends Dataset
     }
 
     /**
-     * Recursive realisation of DectisionTree to String converting.
+     * Recursive realisation of DecisionTree to String converting.
      *
      * @param node Decision tree.
      * @param depth Current depth.
index b97e297..2f2f7ce 100644 (file)
@@ -101,6 +101,15 @@ public abstract class ImpurityMeasureCalculator<T extends ImpurityMeasure<T>> im
         return useIdx ? idx.featureInSortedOrder(k, featureId) : data.getFeatures()[k][featureId];
     }
 
+    /**
+     * Returns feature value in according to kth order statistic.
+     *
+     * @param data Data.
+     * @param idx Index.
+     * @param featureId Feature id.
+     * @param k K-th statistic.
+     * @return feature value in according to kth order statistic.
+     */
     protected Vector getFeatureValues(DecisionTreeData data, TreeDataIndex idx, int featureId, int k) {
         return VectorUtils.of(useIdx ? idx.featuresInSortedOrder(k, featureId) : data.getFeatures()[k]);
     }
index 4d25a86..b98a452 100644 (file)
@@ -21,6 +21,9 @@ import org.junit.Test;
 
 import static org.junit.Assert.assertEquals;
 
+/**
+ * Tests for {@link OnMajorityPredictionsAggregator}.
+ */
 public class OnMajorityPredictionsAggregatorTest {
     /** Aggregator. */
     private PredictionsAggregator aggregator = new OnMajorityPredictionsAggregator();
index b790f8d..7b7b8b1 100644 (file)
@@ -354,7 +354,7 @@ public class AbstractVectorTest {
      * @return AbstractVector.
      */
     private AbstractVector getAbstractVector(VectorStorage storage) {
-        return new AbstractVector(storage) { // TODO: IGNTIE-5723, find out how to fix warning about missing constructor
+        return new AbstractVector(storage) { // TODO: IGNITE-5723, find out how to fix warning about missing constructor
             /** {@inheritDoc} */
             @Override public boolean isDense() {
                 return false;
@@ -423,7 +423,7 @@ public class AbstractVectorTest {
      * @return AbstractVector.
      */
     private AbstractVector getAbstractVector() {
-        return new AbstractVector() { // TODO: IGNTIE-5723, find out how to fix warning about missing constructor
+        return new AbstractVector() { // TODO: IGNITE-5723, find out how to fix warning about missing constructor
             /** {@inheritDoc} */
             @Override public boolean isDense() {
                 return false;
index 7f7b31c..e95d3ac 100644 (file)
@@ -54,7 +54,7 @@ public class VectorAttributesTest {
         new Specification(new SparseLocalVectorRandomAccess(1)),
         new Specification(new VectorizedViewMatrix(new DenseMatrix(1, 1), 0, 0, 1, 1),
             DenseVector.class, "isDense",
-            "isRandomAccess", "isDistributed")); // TODO: IGNTIE-5723, find out why "isSequentialAccess" fails here
+            "isRandomAccess", "isDistributed")); // TODO: IGNITE-5723, find out why "isSequentialAccess" fails here
 
     /** */
     @Test
index 770340a..207141f 100644 (file)
@@ -100,7 +100,7 @@ public class VectorFoldMapTest {
     private void operationVectorTest(BiFunction<Double, Double, Double> operation,
         BiFunction<Vector, Vector, Vector> vecOperation) {
         consumeSampleVectors((v, desc) -> {
-            // TODO: IGNTIE-5723, find out if more elaborate testing scenario is needed or it's okay as is.
+            // TODO: IGNITE-5723, find out if more elaborate testing scenario is needed or it's okay as is.
             final int size = v.size();
             final double[] ref = new double[size];
 
index 48e536e..c21286c 100644 (file)
@@ -42,7 +42,7 @@ import static org.junit.Assert.assertTrue;
 import static org.junit.Assert.fail;
 
 /** See also: {@link AbstractVectorTest} and {@link VectorToMatrixTest}. */
-public class VectorImplementationsTest { // TODO: IGNTIE-5723, split this to smaller cohesive test classes
+public class VectorImplementationsTest { // TODO: IGNITE-5723, split this to smaller cohesive test classes
     /** */
     @Test
     public void setGetTest() {
@@ -92,7 +92,7 @@ public class VectorImplementationsTest { // TODO: IGNTIE-5723, split this to sma
     public void operateXOutOfBoundsTest() {
         consumeSampleVectors((v, desc) -> {
             if (v instanceof SparseVector)
-                return; // TODO: IGNTIE-5723, find out if it's OK to skip by instances here
+                return; // TODO: IGNITE-5723, find out if it's OK to skip by instances here
 
             boolean expECaught = false;
 
@@ -493,7 +493,7 @@ public class VectorImplementationsTest { // TODO: IGNTIE-5723, split this to sma
 
     /** */
     private boolean getXOutOfBoundsOK(Vector v) {
-        // TODO: IGNTIE-5723, find out if this is indeed OK
+        // TODO: IGNITE-5723, find out if this is indeed OK
         return false;
     }
 
@@ -557,7 +557,7 @@ public class VectorImplementationsTest { // TODO: IGNTIE-5723, split this to sma
     private void operationVectorTest(BiFunction<Double, Double, Double> operation,
         BiFunction<Vector, Vector, Vector> vecOperation) {
         consumeSampleVectors((v, desc) -> {
-            // TODO : IGNTIE-5723, find out if more elaborate testing scenario is needed or it's okay as is.
+            // TODO : IGNITE-5723, find out if more elaborate testing scenario is needed or it's okay as is.
             final int size = v.size();
             final double[] ref = new double[size];
 
index c79c0d7..7592811 100644 (file)
@@ -26,7 +26,6 @@ import org.junit.Test;
  * Tests for {@link GaussianNaiveBayesModel}.
  */
 public class GaussianNaiveBayesModelTest {
-
     /** */
     @Test
     public void testPredictWithTwoClasses() {
index f70f7c2..64ea9d3 100644 (file)
@@ -61,6 +61,7 @@ public class GaussianNaiveBayesTrainerTest extends TrainerTest {
         singleLabeldata2.put(1, new double[] {-5.0, -2.0, LABEL_2});
     }
 
+    /** Trainer. */
     private GaussianNaiveBayesTrainer trainer;
 
     /** Initialization {@code GaussianNaiveBayesTrainer}.*/
index 3c325b3..870fd62 100644 (file)
@@ -27,7 +27,6 @@ import static org.junit.Assert.assertArrayEquals;
  * Tests for {@link StandardScalerPreprocessor}.
  */
 public class StandardScalerPreprocessorTest {
-
     /** Test {@code apply()} method. */
     @Test
     public void testApply() {
index 679cc48..6f10b37 100644 (file)
@@ -33,7 +33,6 @@ import static org.junit.Assert.assertArrayEquals;
  * Tests for {@link StandardScalerTrainer}.
  */
 public class StandardScalerTrainerTest extends TrainerTest {
-
     /** Data. */
     private DatasetBuilder<Integer, Vector> datasetBuilder;
 
index 3ca1a07..889e746 100644 (file)
@@ -138,7 +138,7 @@ public class LinearRegressionLSQRTrainerTest extends TrainerTest {
             (k, v) -> v[coef.length]
         );
 
-        LinearRegressionModel updatedOnEmpyDS = trainer.update(
+        LinearRegressionModel updatedOnEmptyDS = trainer.update(
             originalMdl,
             new HashMap<Integer, double[]>(),
             parts,
@@ -149,7 +149,7 @@ public class LinearRegressionLSQRTrainerTest extends TrainerTest {
         assertArrayEquals(originalMdl.getWeights().getStorage().data(), updatedOnSameDS.getWeights().getStorage().data(), 1e-6);
         assertEquals(originalMdl.getIntercept(), updatedOnSameDS.getIntercept(), 1e-6);
 
-        assertArrayEquals(originalMdl.getWeights().getStorage().data(), updatedOnEmpyDS.getWeights().getStorage().data(), 1e-6);
-        assertEquals(originalMdl.getIntercept(), updatedOnEmpyDS.getIntercept(), 1e-6);
+        assertArrayEquals(originalMdl.getWeights().getStorage().data(), updatedOnEmptyDS.getWeights().getStorage().data(), 1e-6);
+        assertEquals(originalMdl.getIntercept(), updatedOnEmptyDS.getIntercept(), 1e-6);
     }
 }
index c22da04..a82374b 100644 (file)
@@ -139,12 +139,11 @@ public class BaggingTest extends TrainerTest {
      * @return Sum of parameters.
      */
     protected static Long plusOfNullables(Long a, Long b) {
-        if (a == null) {
+        if (a == null)
             return b;
-        }
-        if (b == null) {
+
+        if (b == null)
             return a;
-        }
 
         return a + b;
     }