Fit models with differing numbers of regimes to trend data

fit_regimes(
y,
sds = NULL,
n_regimes = 2,
iter = 2000,
thin = 1,
chains = 1,
...
)

## Arguments

y Data, time series or trend from fitted DFA model. Optional time series of standard deviations of estimates. If passed in, residual variance not estimated. Defaults to NULL. Number of regimes to evaluate, defaults 2 MCMC iterations, defaults to 2000. MCMC thinning rate, defaults to 1. MCMC chains, defaults to 1 (note that running multiple chains may result in a label switching problem where the regimes are identified with different IDs across chains). Other parameters to pass to rstan::sampling().

## Examples

data(Nile)
fit_regimes(log(Nile), iter = 50, n_regimes = 1)
#>
#> SAMPLING FOR MODEL 'regime_1' NOW (CHAIN 1).
#> Chain 1:
#> Chain 1: Gradient evaluation took 1.1e-05 seconds
#> Chain 1: 1000 transitions using 10 leapfrog steps per transition would take 0.11 seconds.
#> Chain 1:
#> Chain 1:
#> Chain 1: WARNING: There aren't enough warmup iterations to fit the
#> Chain 1:          three stages of adaptation as currently configured.
#> Chain 1:          Reducing each adaptation stage to 15%/75%/10% of
#> Chain 1:          the given number of warmup iterations:
#> Chain 1:            init_buffer = 3
#> Chain 1:            adapt_window = 20
#> Chain 1:            term_buffer = 2
#> Chain 1:
#> Chain 1: Iteration:  1 / 50 [  2%]  (Warmup)
#> Chain 1: Iteration:  5 / 50 [ 10%]  (Warmup)
#> Chain 1: Iteration: 10 / 50 [ 20%]  (Warmup)
#> Chain 1: Iteration: 15 / 50 [ 30%]  (Warmup)
#> Chain 1: Iteration: 20 / 50 [ 40%]  (Warmup)
#> Chain 1: Iteration: 25 / 50 [ 50%]  (Warmup)
#> Chain 1: Iteration: 26 / 50 [ 52%]  (Sampling)
#> Chain 1: Iteration: 30 / 50 [ 60%]  (Sampling)
#> Chain 1: Iteration: 35 / 50 [ 70%]  (Sampling)
#> Chain 1: Iteration: 40 / 50 [ 80%]  (Sampling)
#> Chain 1: Iteration: 45 / 50 [ 90%]  (Sampling)
#> Chain 1: Iteration: 50 / 50 [100%]  (Sampling)
#> Chain 1:
#> Chain 1:  Elapsed Time: 0.00095 seconds (Warm-up)
#> Chain 1:                0.000839 seconds (Sampling)
#> Chain 1:                0.001789 seconds (Total)
#> Chain 1: #> Warning: The largest R-hat is 1.52, indicating chains have not mixed.
#> Running the chains for more iterations may help. See
#> http://mc-stan.org/misc/warnings.html#r-hat#> Warning: Bulk Effective Samples Size (ESS) is too low, indicating posterior means and medians may be unreliable.
#> Running the chains for more iterations may help. See
#> http://mc-stan.org/misc/warnings.html#bulk-ess#> Warning: Tail Effective Samples Size (ESS) is too low, indicating posterior variances and tail quantiles may be unreliable.
#> Running the chains for more iterations may help. See
#> http://mc-stan.org/misc/warnings.html#tail-ess#> Warning: Some Pareto k diagnostic values are too high. See help('pareto-k-diagnostic') for details.#> $model #> Inference for Stan model: regime_1. #> 1 chains, each with iter=50; warmup=25; thin=1; #> post-warmup draws per chain=25, total post-warmup draws=25. #> #> mean se_mean sd 2.5% 25% 50% 75% 97.5% n_eff Rhat #> mu_k 6.81 0.00 0.02 6.77 6.79 6.81 6.82 6.83 25 0.96 #> sigma_k 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[1] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[2] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[3] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[4] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[5] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[6] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[7] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[8] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[9] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[10] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[11] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[12] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[13] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[14] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[15] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[16] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[17] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[18] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[19] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[20] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[21] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[22] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[23] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[24] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[25] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[26] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[27] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[28] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[29] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[30] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[31] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[32] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[33] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[34] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[35] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[36] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[37] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[38] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[39] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[40] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[41] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[42] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[43] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[44] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[45] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[46] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[47] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[48] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[49] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[50] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[51] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[52] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[53] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[54] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[55] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[56] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[57] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[58] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[59] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[60] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[61] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[62] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[63] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[64] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[65] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[66] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[67] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[68] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[69] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[70] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[71] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[72] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[73] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[74] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[75] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[76] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[77] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[78] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[79] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[80] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[81] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[82] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[83] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[84] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[85] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[86] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[87] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[88] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[89] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[90] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[91] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[92] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[93] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[94] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[95] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[96] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[97] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[98] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[99] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> sigmas[100] 0.18 0.01 0.02 0.16 0.16 0.19 0.19 0.21 5 1.40 #> log_lik[1] 0.07 0.02 0.13 -0.14 -0.02 0.07 0.18 0.24 35 1.02 #> log_lik[2] -0.18 0.03 0.15 -0.43 -0.29 -0.18 -0.05 0.04 23 1.14 #> log_lik[3] 0.72 0.04 0.11 0.56 0.64 0.71 0.82 0.88 6 1.19 #> log_lik[4] -0.54 0.06 0.20 -0.84 -0.72 -0.53 -0.35 -0.24 10 1.29 #> log_lik[5] -0.18 0.03 0.15 -0.43 -0.29 -0.18 -0.05 0.04 23 1.14 #> log_lik[6] -0.18 0.03 0.15 -0.43 -0.29 -0.18 -0.05 0.04 23 1.14 #> log_lik[7] 0.61 0.02 0.07 0.48 0.55 0.61 0.67 0.72 10 1.25 #> log_lik[8] -0.69 0.08 0.22 -1.03 -0.88 -0.69 -0.48 -0.36 8 1.34 #> log_lik[9] -1.91 0.18 0.42 -2.59 -2.13 -1.98 -1.53 -1.23 5 1.53 #> log_lik[10] -0.05 0.02 0.14 -0.28 -0.13 -0.05 0.05 0.14 32 1.07 #> log_lik[11] 0.64 0.04 0.11 0.48 0.55 0.64 0.73 0.81 8 1.09 #> log_lik[12] 0.77 0.04 0.10 0.61 0.70 0.74 0.87 0.91 5 1.28 #> log_lik[13] 0.13 0.02 0.12 -0.08 0.04 0.13 0.25 0.29 35 1.00 #> log_lik[14] 0.64 0.04 0.11 0.48 0.56 0.65 0.73 0.81 8 1.09 #> log_lik[15] 0.56 0.03 0.11 0.38 0.47 0.56 0.62 0.72 10 1.03 #> log_lik[16] 0.73 0.04 0.11 0.57 0.65 0.71 0.83 0.89 6 1.20 #> log_lik[17] -0.32 0.04 0.17 -0.59 -0.46 -0.32 -0.16 -0.07 15 1.20 #> log_lik[18] 0.55 0.02 0.08 0.43 0.49 0.56 0.61 0.66 20 1.12 #> log_lik[19] 0.73 0.04 0.10 0.57 0.65 0.71 0.83 0.89 6 1.20 #> log_lik[20] -0.05 0.02 0.14 -0.28 -0.13 -0.05 0.05 0.14 32 1.07 #> log_lik[21] 0.18 0.02 0.12 -0.02 0.10 0.18 0.29 0.33 31 0.98 #> log_lik[22] -0.54 0.06 0.20 -0.84 -0.72 -0.53 -0.35 -0.24 10 1.29 #> log_lik[23] -0.12 0.03 0.15 -0.36 -0.21 -0.12 0.00 0.09 29 1.10 #> log_lik[24] -0.85 0.09 0.24 -1.23 -1.05 -0.88 -0.62 -0.48 7 1.39 #> log_lik[25] -0.93 0.10 0.26 -1.34 -1.13 -0.96 -0.69 -0.53 7 1.41 #> log_lik[26] -0.61 0.07 0.21 -0.93 -0.80 -0.60 -0.42 -0.30 9 1.32 #> log_lik[27] 0.52 0.03 0.11 0.34 0.43 0.53 0.58 0.69 11 1.00 #> log_lik[28] 0.18 0.02 0.12 -0.02 0.10 0.18 0.29 0.33 31 0.98 #> log_lik[29] 0.41 0.02 0.09 0.29 0.33 0.39 0.49 0.55 35 0.98 #> log_lik[30] 0.70 0.03 0.08 0.56 0.64 0.71 0.74 0.83 6 1.43 #> log_lik[31] 0.77 0.04 0.09 0.62 0.71 0.73 0.86 0.90 5 1.45 #> log_lik[32] -0.30 0.08 0.23 -0.69 -0.43 -0.27 -0.10 0.05 9 1.05 #> log_lik[33] 0.76 0.04 0.10 0.61 0.68 0.73 0.86 0.91 6 1.26 #> log_lik[34] 0.68 0.03 0.08 0.54 0.62 0.70 0.72 0.80 6 1.40 #> log_lik[35] -0.22 0.07 0.21 -0.58 -0.33 -0.20 -0.04 0.11 10 1.04 #> log_lik[36] 0.78 0.04 0.10 0.64 0.71 0.75 0.90 0.92 5 1.34 #> log_lik[37] -0.32 0.08 0.23 -0.73 -0.46 -0.30 -0.12 0.03 9 1.05 #> log_lik[38] 0.56 0.03 0.11 0.38 0.47 0.56 0.62 0.72 10 1.03 #> log_lik[39] 0.44 0.03 0.11 0.24 0.34 0.46 0.51 0.60 15 0.97 #> log_lik[40] 0.71 0.04 0.11 0.55 0.63 0.70 0.81 0.87 6 1.17 #> log_lik[41] 0.68 0.03 0.08 0.54 0.62 0.69 0.71 0.80 6 1.39 #> log_lik[42] 0.04 0.04 0.16 -0.23 -0.07 0.02 0.17 0.29 13 0.99 #> log_lik[43] -6.50 0.66 1.50 -8.88 -7.78 -5.99 -5.32 -4.50 5 1.29 #> log_lik[44] 0.65 0.03 0.08 0.52 0.59 0.66 0.70 0.77 7 1.34 #> log_lik[45] -0.21 0.07 0.21 -0.57 -0.32 -0.19 -0.03 0.12 10 1.04 #> log_lik[46] 0.07 0.02 0.13 -0.14 -0.02 0.07 0.18 0.24 35 1.02 #> log_lik[47] 0.18 0.02 0.12 -0.02 0.10 0.18 0.29 0.33 31 0.98 #> log_lik[48] 0.68 0.03 0.08 0.54 0.62 0.69 0.72 0.80 6 1.39 #> log_lik[49] 0.35 0.02 0.10 0.21 0.27 0.33 0.44 0.50 30 0.96 #> log_lik[50] 0.64 0.03 0.07 0.51 0.58 0.64 0.69 0.76 8 1.32 #> log_lik[51] 0.37 0.02 0.10 0.24 0.30 0.35 0.46 0.52 33 0.97 #> log_lik[52] 0.71 0.03 0.08 0.57 0.66 0.72 0.76 0.84 5 1.45 #> log_lik[53] 0.75 0.04 0.09 0.61 0.70 0.73 0.83 0.89 5 1.47 #> log_lik[54] 0.75 0.04 0.08 0.61 0.70 0.73 0.82 0.88 5 1.47 #> log_lik[55] -0.25 0.07 0.22 -0.63 -0.37 -0.23 -0.06 0.08 10 1.04 #> log_lik[56] 0.71 0.03 0.08 0.57 0.66 0.72 0.76 0.84 5 1.45 #> log_lik[57] 0.20 0.03 0.13 -0.01 0.11 0.18 0.31 0.40 18 0.96 #> log_lik[58] 0.53 0.02 0.08 0.42 0.47 0.55 0.60 0.65 24 1.10 #> log_lik[59] 0.48 0.03 0.11 0.29 0.39 0.49 0.55 0.64 13 0.99 #> log_lik[60] 0.31 0.02 0.11 0.16 0.23 0.29 0.41 0.48 26 0.96 #> log_lik[61] 0.45 0.01 0.09 0.34 0.37 0.45 0.52 0.58 35 1.01 #> log_lik[62] 0.75 0.04 0.09 0.61 0.70 0.73 0.83 0.89 5 1.47 #> log_lik[63] 0.71 0.03 0.08 0.57 0.66 0.72 0.76 0.84 5 1.45 #> log_lik[64] 0.76 0.04 0.10 0.60 0.68 0.73 0.85 0.91 6 1.25 #> log_lik[65] 0.67 0.04 0.11 0.51 0.59 0.67 0.76 0.84 7 1.12 #> log_lik[66] 0.78 0.04 0.10 0.64 0.72 0.75 0.89 0.92 5 1.40 #> log_lik[67] 0.64 0.03 0.07 0.51 0.59 0.65 0.70 0.76 8 1.32 #> log_lik[68] 0.59 0.04 0.11 0.42 0.51 0.59 0.67 0.76 9 1.05 #> log_lik[69] 0.39 0.02 0.09 0.27 0.31 0.37 0.47 0.54 35 0.97 #> log_lik[70] -0.53 0.10 0.28 -1.00 -0.71 -0.52 -0.28 -0.12 8 1.08 #> log_lik[71] -0.92 0.13 0.36 -1.54 -1.19 -0.89 -0.60 -0.42 7 1.12 #> log_lik[72] 0.72 0.03 0.08 0.57 0.66 0.72 0.76 0.84 5 1.45 #> log_lik[73] 0.61 0.02 0.07 0.48 0.55 0.61 0.67 0.71 10 1.24 #> log_lik[74] 0.18 0.03 0.13 -0.03 0.08 0.16 0.29 0.39 17 0.97 #> log_lik[75] 0.56 0.02 0.08 0.44 0.50 0.57 0.62 0.67 18 1.14 #> log_lik[76] 0.48 0.03 0.11 0.29 0.39 0.49 0.55 0.64 13 0.99 #> log_lik[77] 0.75 0.04 0.08 0.60 0.69 0.73 0.82 0.88 5 1.47 #> log_lik[78] 0.77 0.04 0.09 0.62 0.71 0.73 0.86 0.90 5 1.45 #> log_lik[79] 0.72 0.04 0.08 0.58 0.67 0.72 0.77 0.85 5 1.46 #> log_lik[80] 0.78 0.04 0.09 0.64 0.72 0.75 0.88 0.92 5 1.42 #> log_lik[81] 0.20 0.03 0.13 -0.01 0.11 0.18 0.31 0.40 18 0.96 #> log_lik[82] 0.24 0.03 0.12 0.05 0.16 0.23 0.35 0.43 20 0.96 #> log_lik[83] 0.70 0.03 0.08 0.55 0.64 0.70 0.73 0.82 6 1.42 #> log_lik[84] 0.44 0.03 0.11 0.24 0.34 0.46 0.51 0.60 15 0.97 #> log_lik[85] 0.78 0.04 0.10 0.64 0.71 0.75 0.89 0.92 5 1.33 #> log_lik[86] 0.67 0.04 0.11 0.50 0.58 0.66 0.76 0.83 7 1.12 #> log_lik[87] 0.54 0.02 0.08 0.42 0.48 0.56 0.60 0.65 23 1.11 #> log_lik[88] 0.78 0.04 0.10 0.63 0.71 0.75 0.88 0.92 5 1.32 #> log_lik[89] 0.70 0.04 0.11 0.53 0.61 0.68 0.79 0.86 7 1.15 #> log_lik[90] 0.62 0.02 0.07 0.49 0.56 0.62 0.68 0.73 9 1.26 #> log_lik[91] 0.56 0.03 0.11 0.38 0.47 0.56 0.62 0.72 10 1.03 #> log_lik[92] 0.78 0.04 0.10 0.64 0.71 0.74 0.90 0.92 5 1.37 #> log_lik[93] 0.78 0.04 0.10 0.64 0.72 0.74 0.89 0.92 5 1.39 #> log_lik[94] -0.25 0.04 0.16 -0.51 -0.37 -0.25 -0.11 -0.01 18 1.17 #> log_lik[95] 0.78 0.04 0.10 0.64 0.71 0.74 0.90 0.92 5 1.35 #> log_lik[96] 0.21 0.03 0.13 0.02 0.13 0.20 0.32 0.41 19 0.96 #> log_lik[97] 0.78 0.04 0.10 0.64 0.71 0.75 0.89 0.92 5 1.33 #> log_lik[98] -0.04 0.05 0.17 -0.33 -0.15 -0.04 0.11 0.24 12 1.01 #> log_lik[99] -0.08 0.05 0.18 -0.39 -0.19 -0.08 0.08 0.21 11 1.01 #> log_lik[100] 0.16 0.03 0.13 -0.05 0.06 0.15 0.27 0.38 17 0.97 #> lp__ 113.34 0.44 1.19 111.43 112.13 113.48 114.37 114.92 7 1.50 #> #> Samples were drawn using NUTS(diag_e) at Tue Sep 28 10:44:14 2021. #> For each parameter, n_eff is a crude measure of effective sample size, #> and Rhat is the potential scale reduction factor on split chains (at #> convergence, Rhat=1). #> #>$y
#> Time Series:
#> Start = 1871
#> End = 1970
#> Frequency = 1
#>   [1] 7.021084 7.056175 6.870053 7.098376 7.056175 7.056175 6.700731 7.114769
#>   [9] 7.222566 7.038784 6.902743 6.840547 7.012115 6.901737 6.927558 6.866933
#>  [17] 7.073270 6.683361 6.864848 7.038784 7.003065 7.098376 7.047517 7.130899
#>  [25] 7.138867 7.106606 6.937314 7.003065 6.651572 6.733402 6.773080 6.542472
#>  [33] 6.845880 6.725034 6.552508 6.820016 6.539586 6.927558 6.956545 6.876265
#>  [41] 6.722630 6.587550 6.122493 6.714171 6.553933 7.021084 7.003065 6.723832
#>  [49] 6.638568 6.710523 6.643790 6.739337 6.761573 6.759255 6.548219 6.739337
#>  [57] 6.612041 6.679599 6.946976 6.632002 6.660575 6.762730 6.739337 6.850126
#>  [65] 6.891626 6.799056 6.711740 6.917706 6.647688 6.516193 6.475433 6.740519
#>  [73] 6.699500 6.609349 6.685861 6.946976 6.756932 6.773080 6.742881 6.791221
#>  [81] 6.612041 6.618739 6.731018 6.956545 6.822197 6.893656 6.680855 6.827629
#>  [89] 6.882437 6.703188 6.927558 6.809039 6.803505 7.064759 6.815640 6.614726
#>  [97] 6.823286 6.576470 6.570883 6.606650
#>
#> \$looic
#> [1] -46.52446
#>