Initial commit
[hashcat.git] / nv / m01420_a3.cu
1 /**
2  * Author......: Jens Steube <jens.steube@gmail.com>
3  * License.....: MIT
4  */
5
6 #define _SHA256_
7
8 #include "include/constants.h"
9 #include "include/kernel_vendor.h"
10
11 #ifdef  VLIW1
12 #define VECT_SIZE1
13 #endif
14
15 #ifdef  VLIW2
16 #define VECT_SIZE1
17 #endif
18
19 #define DGST_R0 3
20 #define DGST_R1 7
21 #define DGST_R2 2
22 #define DGST_R3 6
23
24 #include "include/kernel_functions.c"
25 #include "types_nv.c"
26 #include "common_nv.c"
27
28 #ifdef  VECT_SIZE1
29 #define VECT_COMPARE_S "check_single_vect1_comp4.c"
30 #define VECT_COMPARE_M "check_multi_vect1_comp4.c"
31 #endif
32
33 #ifdef  VECT_SIZE2
34 #define VECT_COMPARE_S "check_single_vect2_comp4.c"
35 #define VECT_COMPARE_M "check_multi_vect2_comp4.c"
36 #endif
37
38 #ifdef  VECT_SIZE4
39 #define VECT_COMPARE_S "check_single_vect4_comp4.c"
40 #define VECT_COMPARE_M "check_multi_vect4_comp4.c"
41 #endif
42
43 __device__ __constant__ bf_t c_bfs[1024];
44
45 __device__ static void m01420m (u32x w0[4], u32x w1[4], u32x w2[4], u32x w3[4], const u32 pw_len, const pw_t *pws, const gpu_rule_t *rules_buf, const comb_t *combs_buf, const bf_t *bfs_buf, const void *tmps, void *hooks, const u32 *bitmaps_buf_s1_a, const u32 *bitmaps_buf_s1_b, const u32 *bitmaps_buf_s1_c, const u32 *bitmaps_buf_s1_d, const u32 *bitmaps_buf_s2_a, const u32 *bitmaps_buf_s2_b, const u32 *bitmaps_buf_s2_c, const u32 *bitmaps_buf_s2_d, plain_t *plains_buf, const digest_t *digests_buf, u32 *hashes_shown, const salt_t *salt_bufs, const void *esalt_bufs, u32 *d_return_buf, u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 bfs_cnt, const u32 digests_cnt, const u32 digests_offset)
46 {
47   /**
48    * modifier
49    */
50
51   const u32 gid = (blockIdx.x * blockDim.x) + threadIdx.x;
52   const u32 lid = threadIdx.x;
53
54   /**
55    * salt
56    */
57
58   u32 salt_buf0[4];
59
60   salt_buf0[0] = salt_bufs[salt_pos].salt_buf[ 0];
61   salt_buf0[1] = salt_bufs[salt_pos].salt_buf[ 1];
62   salt_buf0[2] = salt_bufs[salt_pos].salt_buf[ 2];
63   salt_buf0[3] = salt_bufs[salt_pos].salt_buf[ 3];
64
65   u32 salt_buf1[4];
66
67   salt_buf1[0] = salt_bufs[salt_pos].salt_buf[ 4];
68   salt_buf1[1] = salt_bufs[salt_pos].salt_buf[ 5];
69   salt_buf1[2] = salt_bufs[salt_pos].salt_buf[ 6];
70   salt_buf1[3] = salt_bufs[salt_pos].salt_buf[ 7];
71
72   u32 salt_buf2[4];
73
74   salt_buf2[0] = 0;
75   salt_buf2[1] = 0;
76   salt_buf2[2] = 0;
77   salt_buf2[3] = 0;
78
79   u32 salt_buf3[4];
80
81   salt_buf3[0] = 0;
82   salt_buf3[1] = 0;
83   salt_buf3[2] = 0;
84   salt_buf3[3] = 0;
85
86   const u32 salt_len = salt_bufs[salt_pos].salt_len;
87
88   const u32 pw_salt_len = pw_len + salt_len;
89
90   /**
91    * loop
92    */
93
94   u32x w0l = w0[0];
95
96   for (u32 il_pos = 0; il_pos < bfs_cnt; il_pos++)
97   {
98     const u32 w0r = c_bfs[il_pos].i;
99
100     w0[0] = w0l | w0r;
101
102     /**
103      * prepend salt
104      */
105
106     u32x w0_t2[4];
107     u32x w1_t2[4];
108     u32x w2_t2[4];
109     u32x w3_t2[4];
110
111     w0_t2[0] = swap_workaround (w0[0]);
112     w0_t2[1] = swap_workaround (w0[1]);
113     w0_t2[2] = swap_workaround (w0[2]);
114     w0_t2[3] = swap_workaround (w0[3]);
115     w1_t2[0] = swap_workaround (w1[0]);
116     w1_t2[1] = swap_workaround (w1[1]);
117     w1_t2[2] = swap_workaround (w1[2]);
118     w1_t2[3] = swap_workaround (w1[3]);
119     w2_t2[0] = swap_workaround (w2[0]);
120     w2_t2[1] = swap_workaround (w2[1]);
121     w2_t2[2] = swap_workaround (w2[2]);
122     w2_t2[3] = swap_workaround (w2[3]);
123     w3_t2[0] = swap_workaround (w3[0]);
124     w3_t2[1] = swap_workaround (w3[1]);
125     w3_t2[2] = swap_workaround (w3[2]);
126     w3_t2[3] = swap_workaround (w3[3]);
127
128     switch_buffer_by_offset (w0_t2, w1_t2, w2_t2, w3_t2, salt_len);
129
130     w0_t2[0] |= salt_buf0[0];
131     w0_t2[1] |= salt_buf0[1];
132     w0_t2[2] |= salt_buf0[2];
133     w0_t2[3] |= salt_buf0[3];
134     w1_t2[0] |= salt_buf1[0];
135     w1_t2[1] |= salt_buf1[1];
136     w1_t2[2] |= salt_buf1[2];
137     w1_t2[3] |= salt_buf1[3];
138     w2_t2[0] |= salt_buf2[0];
139     w2_t2[1] |= salt_buf2[1];
140     w2_t2[2] |= salt_buf2[2];
141     w2_t2[3] |= salt_buf2[3];
142     w3_t2[0] |= salt_buf3[0];
143     w3_t2[1] |= salt_buf3[1];
144     w3_t2[2] |= salt_buf3[2];
145     w3_t2[3] |= salt_buf3[3];
146
147     /**
148      * sha256
149      */
150
151     u32x w0_t = swap_workaround (w0_t2[0]);
152     u32x w1_t = swap_workaround (w0_t2[1]);
153     u32x w2_t = swap_workaround (w0_t2[2]);
154     u32x w3_t = swap_workaround (w0_t2[3]);
155     u32x w4_t = swap_workaround (w1_t2[0]);
156     u32x w5_t = swap_workaround (w1_t2[1]);
157     u32x w6_t = swap_workaround (w1_t2[2]);
158     u32x w7_t = swap_workaround (w1_t2[3]);
159     u32x w8_t = swap_workaround (w2_t2[0]);
160     u32x w9_t = swap_workaround (w2_t2[1]);
161     u32x wa_t = swap_workaround (w2_t2[2]);
162     u32x wb_t = swap_workaround (w2_t2[3]);
163     u32x wc_t = swap_workaround (w3_t2[0]);
164     u32x wd_t = swap_workaround (w3_t2[1]);
165     u32x we_t = 0;
166     u32x wf_t = pw_salt_len * 8;
167
168     u32x a = SHA256M_A;
169     u32x b = SHA256M_B;
170     u32x c = SHA256M_C;
171     u32x d = SHA256M_D;
172     u32x e = SHA256M_E;
173     u32x f = SHA256M_F;
174     u32x g = SHA256M_G;
175     u32x h = SHA256M_H;
176
177     SHA256_STEP (SHA256_F0o, SHA256_F1o, a, b, c, d, e, f, g, h, w0_t, SHA256C00);
178     SHA256_STEP (SHA256_F0o, SHA256_F1o, h, a, b, c, d, e, f, g, w1_t, SHA256C01);
179     SHA256_STEP (SHA256_F0o, SHA256_F1o, g, h, a, b, c, d, e, f, w2_t, SHA256C02);
180     SHA256_STEP (SHA256_F0o, SHA256_F1o, f, g, h, a, b, c, d, e, w3_t, SHA256C03);
181     SHA256_STEP (SHA256_F0o, SHA256_F1o, e, f, g, h, a, b, c, d, w4_t, SHA256C04);
182     SHA256_STEP (SHA256_F0o, SHA256_F1o, d, e, f, g, h, a, b, c, w5_t, SHA256C05);
183     SHA256_STEP (SHA256_F0o, SHA256_F1o, c, d, e, f, g, h, a, b, w6_t, SHA256C06);
184     SHA256_STEP (SHA256_F0o, SHA256_F1o, b, c, d, e, f, g, h, a, w7_t, SHA256C07);
185     SHA256_STEP (SHA256_F0o, SHA256_F1o, a, b, c, d, e, f, g, h, w8_t, SHA256C08);
186     SHA256_STEP (SHA256_F0o, SHA256_F1o, h, a, b, c, d, e, f, g, w9_t, SHA256C09);
187     SHA256_STEP (SHA256_F0o, SHA256_F1o, g, h, a, b, c, d, e, f, wa_t, SHA256C0a);
188     SHA256_STEP (SHA256_F0o, SHA256_F1o, f, g, h, a, b, c, d, e, wb_t, SHA256C0b);
189     SHA256_STEP (SHA256_F0o, SHA256_F1o, e, f, g, h, a, b, c, d, wc_t, SHA256C0c);
190     SHA256_STEP (SHA256_F0o, SHA256_F1o, d, e, f, g, h, a, b, c, wd_t, SHA256C0d);
191     SHA256_STEP (SHA256_F0o, SHA256_F1o, c, d, e, f, g, h, a, b, we_t, SHA256C0e);
192     SHA256_STEP (SHA256_F0o, SHA256_F1o, b, c, d, e, f, g, h, a, wf_t, SHA256C0f);
193
194     w0_t = SHA256_EXPAND (we_t, w9_t, w1_t, w0_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, a, b, c, d, e, f, g, h, w0_t, SHA256C10);
195     w1_t = SHA256_EXPAND (wf_t, wa_t, w2_t, w1_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, h, a, b, c, d, e, f, g, w1_t, SHA256C11);
196     w2_t = SHA256_EXPAND (w0_t, wb_t, w3_t, w2_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, g, h, a, b, c, d, e, f, w2_t, SHA256C12);
197     w3_t = SHA256_EXPAND (w1_t, wc_t, w4_t, w3_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, f, g, h, a, b, c, d, e, w3_t, SHA256C13);
198     w4_t = SHA256_EXPAND (w2_t, wd_t, w5_t, w4_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, e, f, g, h, a, b, c, d, w4_t, SHA256C14);
199     w5_t = SHA256_EXPAND (w3_t, we_t, w6_t, w5_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, d, e, f, g, h, a, b, c, w5_t, SHA256C15);
200     w6_t = SHA256_EXPAND (w4_t, wf_t, w7_t, w6_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, c, d, e, f, g, h, a, b, w6_t, SHA256C16);
201     w7_t = SHA256_EXPAND (w5_t, w0_t, w8_t, w7_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, b, c, d, e, f, g, h, a, w7_t, SHA256C17);
202     w8_t = SHA256_EXPAND (w6_t, w1_t, w9_t, w8_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, a, b, c, d, e, f, g, h, w8_t, SHA256C18);
203     w9_t = SHA256_EXPAND (w7_t, w2_t, wa_t, w9_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, h, a, b, c, d, e, f, g, w9_t, SHA256C19);
204     wa_t = SHA256_EXPAND (w8_t, w3_t, wb_t, wa_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, g, h, a, b, c, d, e, f, wa_t, SHA256C1a);
205     wb_t = SHA256_EXPAND (w9_t, w4_t, wc_t, wb_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, f, g, h, a, b, c, d, e, wb_t, SHA256C1b);
206     wc_t = SHA256_EXPAND (wa_t, w5_t, wd_t, wc_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, e, f, g, h, a, b, c, d, wc_t, SHA256C1c);
207     wd_t = SHA256_EXPAND (wb_t, w6_t, we_t, wd_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, d, e, f, g, h, a, b, c, wd_t, SHA256C1d);
208     we_t = SHA256_EXPAND (wc_t, w7_t, wf_t, we_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, c, d, e, f, g, h, a, b, we_t, SHA256C1e);
209     wf_t = SHA256_EXPAND (wd_t, w8_t, w0_t, wf_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, b, c, d, e, f, g, h, a, wf_t, SHA256C1f);
210
211     w0_t = SHA256_EXPAND (we_t, w9_t, w1_t, w0_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, a, b, c, d, e, f, g, h, w0_t, SHA256C20);
212     w1_t = SHA256_EXPAND (wf_t, wa_t, w2_t, w1_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, h, a, b, c, d, e, f, g, w1_t, SHA256C21);
213     w2_t = SHA256_EXPAND (w0_t, wb_t, w3_t, w2_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, g, h, a, b, c, d, e, f, w2_t, SHA256C22);
214     w3_t = SHA256_EXPAND (w1_t, wc_t, w4_t, w3_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, f, g, h, a, b, c, d, e, w3_t, SHA256C23);
215     w4_t = SHA256_EXPAND (w2_t, wd_t, w5_t, w4_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, e, f, g, h, a, b, c, d, w4_t, SHA256C24);
216     w5_t = SHA256_EXPAND (w3_t, we_t, w6_t, w5_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, d, e, f, g, h, a, b, c, w5_t, SHA256C25);
217     w6_t = SHA256_EXPAND (w4_t, wf_t, w7_t, w6_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, c, d, e, f, g, h, a, b, w6_t, SHA256C26);
218     w7_t = SHA256_EXPAND (w5_t, w0_t, w8_t, w7_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, b, c, d, e, f, g, h, a, w7_t, SHA256C27);
219     w8_t = SHA256_EXPAND (w6_t, w1_t, w9_t, w8_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, a, b, c, d, e, f, g, h, w8_t, SHA256C28);
220     w9_t = SHA256_EXPAND (w7_t, w2_t, wa_t, w9_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, h, a, b, c, d, e, f, g, w9_t, SHA256C29);
221     wa_t = SHA256_EXPAND (w8_t, w3_t, wb_t, wa_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, g, h, a, b, c, d, e, f, wa_t, SHA256C2a);
222     wb_t = SHA256_EXPAND (w9_t, w4_t, wc_t, wb_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, f, g, h, a, b, c, d, e, wb_t, SHA256C2b);
223     wc_t = SHA256_EXPAND (wa_t, w5_t, wd_t, wc_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, e, f, g, h, a, b, c, d, wc_t, SHA256C2c);
224     wd_t = SHA256_EXPAND (wb_t, w6_t, we_t, wd_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, d, e, f, g, h, a, b, c, wd_t, SHA256C2d);
225     we_t = SHA256_EXPAND (wc_t, w7_t, wf_t, we_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, c, d, e, f, g, h, a, b, we_t, SHA256C2e);
226     wf_t = SHA256_EXPAND (wd_t, w8_t, w0_t, wf_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, b, c, d, e, f, g, h, a, wf_t, SHA256C2f);
227
228     w0_t = SHA256_EXPAND (we_t, w9_t, w1_t, w0_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, a, b, c, d, e, f, g, h, w0_t, SHA256C30);
229     w1_t = SHA256_EXPAND (wf_t, wa_t, w2_t, w1_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, h, a, b, c, d, e, f, g, w1_t, SHA256C31);
230     w2_t = SHA256_EXPAND (w0_t, wb_t, w3_t, w2_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, g, h, a, b, c, d, e, f, w2_t, SHA256C32);
231     w3_t = SHA256_EXPAND (w1_t, wc_t, w4_t, w3_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, f, g, h, a, b, c, d, e, w3_t, SHA256C33);
232     w4_t = SHA256_EXPAND (w2_t, wd_t, w5_t, w4_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, e, f, g, h, a, b, c, d, w4_t, SHA256C34);
233     w5_t = SHA256_EXPAND (w3_t, we_t, w6_t, w5_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, d, e, f, g, h, a, b, c, w5_t, SHA256C35);
234     w6_t = SHA256_EXPAND (w4_t, wf_t, w7_t, w6_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, c, d, e, f, g, h, a, b, w6_t, SHA256C36);
235     w7_t = SHA256_EXPAND (w5_t, w0_t, w8_t, w7_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, b, c, d, e, f, g, h, a, w7_t, SHA256C37);
236     w8_t = SHA256_EXPAND (w6_t, w1_t, w9_t, w8_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, a, b, c, d, e, f, g, h, w8_t, SHA256C38);
237     w9_t = SHA256_EXPAND (w7_t, w2_t, wa_t, w9_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, h, a, b, c, d, e, f, g, w9_t, SHA256C39);
238     wa_t = SHA256_EXPAND (w8_t, w3_t, wb_t, wa_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, g, h, a, b, c, d, e, f, wa_t, SHA256C3a);
239     wb_t = SHA256_EXPAND (w9_t, w4_t, wc_t, wb_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, f, g, h, a, b, c, d, e, wb_t, SHA256C3b);
240     wc_t = SHA256_EXPAND (wa_t, w5_t, wd_t, wc_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, e, f, g, h, a, b, c, d, wc_t, SHA256C3c);
241     wd_t = SHA256_EXPAND (wb_t, w6_t, we_t, wd_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, d, e, f, g, h, a, b, c, wd_t, SHA256C3d);
242     we_t = SHA256_EXPAND (wc_t, w7_t, wf_t, we_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, c, d, e, f, g, h, a, b, we_t, SHA256C3e);
243     wf_t = SHA256_EXPAND (wd_t, w8_t, w0_t, wf_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, b, c, d, e, f, g, h, a, wf_t, SHA256C3f);
244
245
246     const u32x r0 = d;
247     const u32x r1 = h;
248     const u32x r2 = c;
249     const u32x r3 = g;
250
251     #include VECT_COMPARE_M
252   }
253 }
254
255 __device__ static void m01420s (u32x w0[4], u32x w1[4], u32x w2[4], u32x w3[4], const u32 pw_len, const pw_t *pws, const gpu_rule_t *rules_buf, const comb_t *combs_buf, const bf_t *bfs_buf, const void *tmps, void *hooks, const u32 *bitmaps_buf_s1_a, const u32 *bitmaps_buf_s1_b, const u32 *bitmaps_buf_s1_c, const u32 *bitmaps_buf_s1_d, const u32 *bitmaps_buf_s2_a, const u32 *bitmaps_buf_s2_b, const u32 *bitmaps_buf_s2_c, const u32 *bitmaps_buf_s2_d, plain_t *plains_buf, const digest_t *digests_buf, u32 *hashes_shown, const salt_t *salt_bufs, const void *esalt_bufs, u32 *d_return_buf, u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 bfs_cnt, const u32 digests_cnt, const u32 digests_offset)
256 {
257   /**
258    * modifier
259    */
260
261   const u32 gid = (blockIdx.x * blockDim.x) + threadIdx.x;
262   const u32 lid = threadIdx.x;
263
264   /**
265    * digest
266    */
267
268   const u32 search[4] =
269   {
270     digests_buf[digests_offset].digest_buf[DGST_R0],
271     digests_buf[digests_offset].digest_buf[DGST_R1],
272     digests_buf[digests_offset].digest_buf[DGST_R2],
273     digests_buf[digests_offset].digest_buf[DGST_R3]
274   };
275
276   /**
277    * salt
278    */
279
280   u32 salt_buf0[4];
281
282   salt_buf0[0] = salt_bufs[salt_pos].salt_buf[ 0];
283   salt_buf0[1] = salt_bufs[salt_pos].salt_buf[ 1];
284   salt_buf0[2] = salt_bufs[salt_pos].salt_buf[ 2];
285   salt_buf0[3] = salt_bufs[salt_pos].salt_buf[ 3];
286
287   u32 salt_buf1[4];
288
289   salt_buf1[0] = salt_bufs[salt_pos].salt_buf[ 4];
290   salt_buf1[1] = salt_bufs[salt_pos].salt_buf[ 5];
291   salt_buf1[2] = salt_bufs[salt_pos].salt_buf[ 6];
292   salt_buf1[3] = salt_bufs[salt_pos].salt_buf[ 7];
293
294   u32 salt_buf2[4];
295
296   salt_buf2[0] = 0;
297   salt_buf2[1] = 0;
298   salt_buf2[2] = 0;
299   salt_buf2[3] = 0;
300
301   u32 salt_buf3[4];
302
303   salt_buf3[0] = 0;
304   salt_buf3[1] = 0;
305   salt_buf3[2] = 0;
306   salt_buf3[3] = 0;
307
308   const u32 salt_len = salt_bufs[salt_pos].salt_len;
309
310   const u32 pw_salt_len = pw_len + salt_len;
311
312   /**
313    * loop
314    */
315
316   u32x w0l = w0[0];
317
318   for (u32 il_pos = 0; il_pos < bfs_cnt; il_pos++)
319   {
320     const u32 w0r = c_bfs[il_pos].i;
321
322     w0[0] = w0l | w0r;
323
324     /**
325      * prepend salt
326      */
327
328     u32x w0_t2[4];
329     u32x w1_t2[4];
330     u32x w2_t2[4];
331     u32x w3_t2[4];
332
333     w0_t2[0] = swap_workaround (w0[0]);
334     w0_t2[1] = swap_workaround (w0[1]);
335     w0_t2[2] = swap_workaround (w0[2]);
336     w0_t2[3] = swap_workaround (w0[3]);
337     w1_t2[0] = swap_workaround (w1[0]);
338     w1_t2[1] = swap_workaround (w1[1]);
339     w1_t2[2] = swap_workaround (w1[2]);
340     w1_t2[3] = swap_workaround (w1[3]);
341     w2_t2[0] = swap_workaround (w2[0]);
342     w2_t2[1] = swap_workaround (w2[1]);
343     w2_t2[2] = swap_workaround (w2[2]);
344     w2_t2[3] = swap_workaround (w2[3]);
345     w3_t2[0] = swap_workaround (w3[0]);
346     w3_t2[1] = swap_workaround (w3[1]);
347     w3_t2[2] = swap_workaround (w3[2]);
348     w3_t2[3] = swap_workaround (w3[3]);
349
350     switch_buffer_by_offset (w0_t2, w1_t2, w2_t2, w3_t2, salt_len);
351
352     w0_t2[0] |= salt_buf0[0];
353     w0_t2[1] |= salt_buf0[1];
354     w0_t2[2] |= salt_buf0[2];
355     w0_t2[3] |= salt_buf0[3];
356     w1_t2[0] |= salt_buf1[0];
357     w1_t2[1] |= salt_buf1[1];
358     w1_t2[2] |= salt_buf1[2];
359     w1_t2[3] |= salt_buf1[3];
360     w2_t2[0] |= salt_buf2[0];
361     w2_t2[1] |= salt_buf2[1];
362     w2_t2[2] |= salt_buf2[2];
363     w2_t2[3] |= salt_buf2[3];
364     w3_t2[0] |= salt_buf3[0];
365     w3_t2[1] |= salt_buf3[1];
366     w3_t2[2] |= salt_buf3[2];
367     w3_t2[3] |= salt_buf3[3];
368
369     /**
370      * sha256
371      */
372
373     u32x w0_t = swap_workaround (w0_t2[0]);
374     u32x w1_t = swap_workaround (w0_t2[1]);
375     u32x w2_t = swap_workaround (w0_t2[2]);
376     u32x w3_t = swap_workaround (w0_t2[3]);
377     u32x w4_t = swap_workaround (w1_t2[0]);
378     u32x w5_t = swap_workaround (w1_t2[1]);
379     u32x w6_t = swap_workaround (w1_t2[2]);
380     u32x w7_t = swap_workaround (w1_t2[3]);
381     u32x w8_t = swap_workaround (w2_t2[0]);
382     u32x w9_t = swap_workaround (w2_t2[1]);
383     u32x wa_t = swap_workaround (w2_t2[2]);
384     u32x wb_t = swap_workaround (w2_t2[3]);
385     u32x wc_t = swap_workaround (w3_t2[0]);
386     u32x wd_t = swap_workaround (w3_t2[1]);
387     u32x we_t = 0;
388     u32x wf_t = pw_salt_len * 8;
389
390     u32x a = SHA256M_A;
391     u32x b = SHA256M_B;
392     u32x c = SHA256M_C;
393     u32x d = SHA256M_D;
394     u32x e = SHA256M_E;
395     u32x f = SHA256M_F;
396     u32x g = SHA256M_G;
397     u32x h = SHA256M_H;
398
399     SHA256_STEP (SHA256_F0o, SHA256_F1o, a, b, c, d, e, f, g, h, w0_t, SHA256C00);
400     SHA256_STEP (SHA256_F0o, SHA256_F1o, h, a, b, c, d, e, f, g, w1_t, SHA256C01);
401     SHA256_STEP (SHA256_F0o, SHA256_F1o, g, h, a, b, c, d, e, f, w2_t, SHA256C02);
402     SHA256_STEP (SHA256_F0o, SHA256_F1o, f, g, h, a, b, c, d, e, w3_t, SHA256C03);
403     SHA256_STEP (SHA256_F0o, SHA256_F1o, e, f, g, h, a, b, c, d, w4_t, SHA256C04);
404     SHA256_STEP (SHA256_F0o, SHA256_F1o, d, e, f, g, h, a, b, c, w5_t, SHA256C05);
405     SHA256_STEP (SHA256_F0o, SHA256_F1o, c, d, e, f, g, h, a, b, w6_t, SHA256C06);
406     SHA256_STEP (SHA256_F0o, SHA256_F1o, b, c, d, e, f, g, h, a, w7_t, SHA256C07);
407     SHA256_STEP (SHA256_F0o, SHA256_F1o, a, b, c, d, e, f, g, h, w8_t, SHA256C08);
408     SHA256_STEP (SHA256_F0o, SHA256_F1o, h, a, b, c, d, e, f, g, w9_t, SHA256C09);
409     SHA256_STEP (SHA256_F0o, SHA256_F1o, g, h, a, b, c, d, e, f, wa_t, SHA256C0a);
410     SHA256_STEP (SHA256_F0o, SHA256_F1o, f, g, h, a, b, c, d, e, wb_t, SHA256C0b);
411     SHA256_STEP (SHA256_F0o, SHA256_F1o, e, f, g, h, a, b, c, d, wc_t, SHA256C0c);
412     SHA256_STEP (SHA256_F0o, SHA256_F1o, d, e, f, g, h, a, b, c, wd_t, SHA256C0d);
413     SHA256_STEP (SHA256_F0o, SHA256_F1o, c, d, e, f, g, h, a, b, we_t, SHA256C0e);
414     SHA256_STEP (SHA256_F0o, SHA256_F1o, b, c, d, e, f, g, h, a, wf_t, SHA256C0f);
415
416     w0_t = SHA256_EXPAND (we_t, w9_t, w1_t, w0_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, a, b, c, d, e, f, g, h, w0_t, SHA256C10);
417     w1_t = SHA256_EXPAND (wf_t, wa_t, w2_t, w1_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, h, a, b, c, d, e, f, g, w1_t, SHA256C11);
418     w2_t = SHA256_EXPAND (w0_t, wb_t, w3_t, w2_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, g, h, a, b, c, d, e, f, w2_t, SHA256C12);
419     w3_t = SHA256_EXPAND (w1_t, wc_t, w4_t, w3_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, f, g, h, a, b, c, d, e, w3_t, SHA256C13);
420     w4_t = SHA256_EXPAND (w2_t, wd_t, w5_t, w4_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, e, f, g, h, a, b, c, d, w4_t, SHA256C14);
421     w5_t = SHA256_EXPAND (w3_t, we_t, w6_t, w5_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, d, e, f, g, h, a, b, c, w5_t, SHA256C15);
422     w6_t = SHA256_EXPAND (w4_t, wf_t, w7_t, w6_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, c, d, e, f, g, h, a, b, w6_t, SHA256C16);
423     w7_t = SHA256_EXPAND (w5_t, w0_t, w8_t, w7_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, b, c, d, e, f, g, h, a, w7_t, SHA256C17);
424     w8_t = SHA256_EXPAND (w6_t, w1_t, w9_t, w8_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, a, b, c, d, e, f, g, h, w8_t, SHA256C18);
425     w9_t = SHA256_EXPAND (w7_t, w2_t, wa_t, w9_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, h, a, b, c, d, e, f, g, w9_t, SHA256C19);
426     wa_t = SHA256_EXPAND (w8_t, w3_t, wb_t, wa_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, g, h, a, b, c, d, e, f, wa_t, SHA256C1a);
427     wb_t = SHA256_EXPAND (w9_t, w4_t, wc_t, wb_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, f, g, h, a, b, c, d, e, wb_t, SHA256C1b);
428     wc_t = SHA256_EXPAND (wa_t, w5_t, wd_t, wc_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, e, f, g, h, a, b, c, d, wc_t, SHA256C1c);
429     wd_t = SHA256_EXPAND (wb_t, w6_t, we_t, wd_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, d, e, f, g, h, a, b, c, wd_t, SHA256C1d);
430     we_t = SHA256_EXPAND (wc_t, w7_t, wf_t, we_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, c, d, e, f, g, h, a, b, we_t, SHA256C1e);
431     wf_t = SHA256_EXPAND (wd_t, w8_t, w0_t, wf_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, b, c, d, e, f, g, h, a, wf_t, SHA256C1f);
432
433     w0_t = SHA256_EXPAND (we_t, w9_t, w1_t, w0_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, a, b, c, d, e, f, g, h, w0_t, SHA256C20);
434     w1_t = SHA256_EXPAND (wf_t, wa_t, w2_t, w1_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, h, a, b, c, d, e, f, g, w1_t, SHA256C21);
435     w2_t = SHA256_EXPAND (w0_t, wb_t, w3_t, w2_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, g, h, a, b, c, d, e, f, w2_t, SHA256C22);
436     w3_t = SHA256_EXPAND (w1_t, wc_t, w4_t, w3_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, f, g, h, a, b, c, d, e, w3_t, SHA256C23);
437     w4_t = SHA256_EXPAND (w2_t, wd_t, w5_t, w4_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, e, f, g, h, a, b, c, d, w4_t, SHA256C24);
438     w5_t = SHA256_EXPAND (w3_t, we_t, w6_t, w5_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, d, e, f, g, h, a, b, c, w5_t, SHA256C25);
439     w6_t = SHA256_EXPAND (w4_t, wf_t, w7_t, w6_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, c, d, e, f, g, h, a, b, w6_t, SHA256C26);
440     w7_t = SHA256_EXPAND (w5_t, w0_t, w8_t, w7_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, b, c, d, e, f, g, h, a, w7_t, SHA256C27);
441     w8_t = SHA256_EXPAND (w6_t, w1_t, w9_t, w8_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, a, b, c, d, e, f, g, h, w8_t, SHA256C28);
442     w9_t = SHA256_EXPAND (w7_t, w2_t, wa_t, w9_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, h, a, b, c, d, e, f, g, w9_t, SHA256C29);
443     wa_t = SHA256_EXPAND (w8_t, w3_t, wb_t, wa_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, g, h, a, b, c, d, e, f, wa_t, SHA256C2a);
444     wb_t = SHA256_EXPAND (w9_t, w4_t, wc_t, wb_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, f, g, h, a, b, c, d, e, wb_t, SHA256C2b);
445     wc_t = SHA256_EXPAND (wa_t, w5_t, wd_t, wc_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, e, f, g, h, a, b, c, d, wc_t, SHA256C2c);
446     wd_t = SHA256_EXPAND (wb_t, w6_t, we_t, wd_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, d, e, f, g, h, a, b, c, wd_t, SHA256C2d);
447     we_t = SHA256_EXPAND (wc_t, w7_t, wf_t, we_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, c, d, e, f, g, h, a, b, we_t, SHA256C2e);
448     wf_t = SHA256_EXPAND (wd_t, w8_t, w0_t, wf_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, b, c, d, e, f, g, h, a, wf_t, SHA256C2f);
449
450     w0_t = SHA256_EXPAND (we_t, w9_t, w1_t, w0_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, a, b, c, d, e, f, g, h, w0_t, SHA256C30);
451     w1_t = SHA256_EXPAND (wf_t, wa_t, w2_t, w1_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, h, a, b, c, d, e, f, g, w1_t, SHA256C31);
452     w2_t = SHA256_EXPAND (w0_t, wb_t, w3_t, w2_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, g, h, a, b, c, d, e, f, w2_t, SHA256C32);
453     w3_t = SHA256_EXPAND (w1_t, wc_t, w4_t, w3_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, f, g, h, a, b, c, d, e, w3_t, SHA256C33);
454     w4_t = SHA256_EXPAND (w2_t, wd_t, w5_t, w4_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, e, f, g, h, a, b, c, d, w4_t, SHA256C34);
455     w5_t = SHA256_EXPAND (w3_t, we_t, w6_t, w5_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, d, e, f, g, h, a, b, c, w5_t, SHA256C35);
456     w6_t = SHA256_EXPAND (w4_t, wf_t, w7_t, w6_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, c, d, e, f, g, h, a, b, w6_t, SHA256C36);
457     w7_t = SHA256_EXPAND (w5_t, w0_t, w8_t, w7_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, b, c, d, e, f, g, h, a, w7_t, SHA256C37);
458     w8_t = SHA256_EXPAND (w6_t, w1_t, w9_t, w8_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, a, b, c, d, e, f, g, h, w8_t, SHA256C38);
459     w9_t = SHA256_EXPAND (w7_t, w2_t, wa_t, w9_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, h, a, b, c, d, e, f, g, w9_t, SHA256C39);
460     wa_t = SHA256_EXPAND (w8_t, w3_t, wb_t, wa_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, g, h, a, b, c, d, e, f, wa_t, SHA256C3a);
461     wb_t = SHA256_EXPAND (w9_t, w4_t, wc_t, wb_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, f, g, h, a, b, c, d, e, wb_t, SHA256C3b);
462     wc_t = SHA256_EXPAND (wa_t, w5_t, wd_t, wc_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, e, f, g, h, a, b, c, d, wc_t, SHA256C3c);
463     wd_t = SHA256_EXPAND (wb_t, w6_t, we_t, wd_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, d, e, f, g, h, a, b, c, wd_t, SHA256C3d);
464     we_t = SHA256_EXPAND (wc_t, w7_t, wf_t, we_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, c, d, e, f, g, h, a, b, we_t, SHA256C3e);
465     wf_t = SHA256_EXPAND (wd_t, w8_t, w0_t, wf_t); SHA256_STEP (SHA256_F0o, SHA256_F1o, b, c, d, e, f, g, h, a, wf_t, SHA256C3f);
466
467
468     const u32x r0 = d;
469     const u32x r1 = h;
470     const u32x r2 = c;
471     const u32x r3 = g;
472
473     #include VECT_COMPARE_S
474   }
475 }
476
477 extern "C" __global__ void __launch_bounds__ (256, 1) m01420_m04 (const pw_t *pws, const gpu_rule_t *rules_buf, const comb_t *combs_buf, const bf_t *bfs_buf, const void *tmps, void *hooks, const u32 *bitmaps_buf_s1_a, const u32 *bitmaps_buf_s1_b, const u32 *bitmaps_buf_s1_c, const u32 *bitmaps_buf_s1_d, const u32 *bitmaps_buf_s2_a, const u32 *bitmaps_buf_s2_b, const u32 *bitmaps_buf_s2_c, const u32 *bitmaps_buf_s2_d, plain_t *plains_buf, const digest_t *digests_buf, u32 *hashes_shown, const salt_t *salt_bufs, const void *esalt_bufs, u32 *d_return_buf, u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 bfs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
478 {
479   /**
480    * base
481    */
482
483   const u32 gid = (blockIdx.x * blockDim.x) + threadIdx.x;
484
485   if (gid >= gid_max) return;
486
487   u32x w0[4];
488
489   w0[0] = pws[gid].i[ 0];
490   w0[1] = pws[gid].i[ 1];
491   w0[2] = pws[gid].i[ 2];
492   w0[3] = pws[gid].i[ 3];
493
494   u32x w1[4];
495
496   w1[0] = 0;
497   w1[1] = 0;
498   w1[2] = 0;
499   w1[3] = 0;
500
501   u32x w2[4];
502
503   w2[0] = 0;
504   w2[1] = 0;
505   w2[2] = 0;
506   w2[3] = 0;
507
508   u32x w3[4];
509
510   w3[0] = 0;
511   w3[1] = 0;
512   w3[2] = 0;
513   w3[3] = 0;
514
515   const u32 pw_len = pws[gid].pw_len;
516
517   /**
518    * main
519    */
520
521   m01420m (w0, w1, w2, w3, pw_len, pws, rules_buf, combs_buf, bfs_buf, tmps, hooks, bitmaps_buf_s1_a, bitmaps_buf_s1_b, bitmaps_buf_s1_c, bitmaps_buf_s1_d, bitmaps_buf_s2_a, bitmaps_buf_s2_b, bitmaps_buf_s2_c, bitmaps_buf_s2_d, plains_buf, digests_buf, hashes_shown, salt_bufs, esalt_bufs, d_return_buf, d_scryptV_buf, bitmap_mask, bitmap_shift1, bitmap_shift2, salt_pos, loop_pos, loop_cnt, bfs_cnt, digests_cnt, digests_offset);
522 }
523
524 extern "C" __global__ void __launch_bounds__ (256, 1) m01420_m08 (const pw_t *pws, const gpu_rule_t *rules_buf, const comb_t *combs_buf, const bf_t *bfs_buf, const void *tmps, void *hooks, const u32 *bitmaps_buf_s1_a, const u32 *bitmaps_buf_s1_b, const u32 *bitmaps_buf_s1_c, const u32 *bitmaps_buf_s1_d, const u32 *bitmaps_buf_s2_a, const u32 *bitmaps_buf_s2_b, const u32 *bitmaps_buf_s2_c, const u32 *bitmaps_buf_s2_d, plain_t *plains_buf, const digest_t *digests_buf, u32 *hashes_shown, const salt_t *salt_bufs, const void *esalt_bufs, u32 *d_return_buf, u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 bfs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
525 {
526   /**
527    * base
528    */
529
530   const u32 gid = (blockIdx.x * blockDim.x) + threadIdx.x;
531
532   if (gid >= gid_max) return;
533
534   u32x w0[4];
535
536   w0[0] = pws[gid].i[ 0];
537   w0[1] = pws[gid].i[ 1];
538   w0[2] = pws[gid].i[ 2];
539   w0[3] = pws[gid].i[ 3];
540
541   u32x w1[4];
542
543   w1[0] = pws[gid].i[ 4];
544   w1[1] = pws[gid].i[ 5];
545   w1[2] = pws[gid].i[ 6];
546   w1[3] = pws[gid].i[ 7];
547
548   u32x w2[4];
549
550   w2[0] = 0;
551   w2[1] = 0;
552   w2[2] = 0;
553   w2[3] = 0;
554
555   u32x w3[4];
556
557   w3[0] = 0;
558   w3[1] = 0;
559   w3[2] = 0;
560   w3[3] = 0;
561
562   const u32 pw_len = pws[gid].pw_len;
563
564   /**
565    * main
566    */
567
568   m01420m (w0, w1, w2, w3, pw_len, pws, rules_buf, combs_buf, bfs_buf, tmps, hooks, bitmaps_buf_s1_a, bitmaps_buf_s1_b, bitmaps_buf_s1_c, bitmaps_buf_s1_d, bitmaps_buf_s2_a, bitmaps_buf_s2_b, bitmaps_buf_s2_c, bitmaps_buf_s2_d, plains_buf, digests_buf, hashes_shown, salt_bufs, esalt_bufs, d_return_buf, d_scryptV_buf, bitmap_mask, bitmap_shift1, bitmap_shift2, salt_pos, loop_pos, loop_cnt, bfs_cnt, digests_cnt, digests_offset);
569 }
570
571 extern "C" __global__ void __launch_bounds__ (256, 1) m01420_m16 (const pw_t *pws, const gpu_rule_t *rules_buf, const comb_t *combs_buf, const bf_t *bfs_buf, const void *tmps, void *hooks, const u32 *bitmaps_buf_s1_a, const u32 *bitmaps_buf_s1_b, const u32 *bitmaps_buf_s1_c, const u32 *bitmaps_buf_s1_d, const u32 *bitmaps_buf_s2_a, const u32 *bitmaps_buf_s2_b, const u32 *bitmaps_buf_s2_c, const u32 *bitmaps_buf_s2_d, plain_t *plains_buf, const digest_t *digests_buf, u32 *hashes_shown, const salt_t *salt_bufs, const void *esalt_bufs, u32 *d_return_buf, u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 bfs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
572 {
573   /**
574    * base
575    */
576
577   const u32 gid = (blockIdx.x * blockDim.x) + threadIdx.x;
578
579   if (gid >= gid_max) return;
580
581   u32x w0[4];
582
583   w0[0] = pws[gid].i[ 0];
584   w0[1] = pws[gid].i[ 1];
585   w0[2] = pws[gid].i[ 2];
586   w0[3] = pws[gid].i[ 3];
587
588   u32x w1[4];
589
590   w1[0] = pws[gid].i[ 4];
591   w1[1] = pws[gid].i[ 5];
592   w1[2] = pws[gid].i[ 6];
593   w1[3] = pws[gid].i[ 7];
594
595   u32x w2[4];
596
597   w2[0] = pws[gid].i[ 8];
598   w2[1] = pws[gid].i[ 9];
599   w2[2] = pws[gid].i[10];
600   w2[3] = pws[gid].i[11];
601
602   u32x w3[4];
603
604   w3[0] = pws[gid].i[12];
605   w3[1] = pws[gid].i[13];
606   w3[2] = 0;
607   w3[3] = 0;
608
609   const u32 pw_len = pws[gid].pw_len;
610
611   /**
612    * main
613    */
614
615   m01420m (w0, w1, w2, w3, pw_len, pws, rules_buf, combs_buf, bfs_buf, tmps, hooks, bitmaps_buf_s1_a, bitmaps_buf_s1_b, bitmaps_buf_s1_c, bitmaps_buf_s1_d, bitmaps_buf_s2_a, bitmaps_buf_s2_b, bitmaps_buf_s2_c, bitmaps_buf_s2_d, plains_buf, digests_buf, hashes_shown, salt_bufs, esalt_bufs, d_return_buf, d_scryptV_buf, bitmap_mask, bitmap_shift1, bitmap_shift2, salt_pos, loop_pos, loop_cnt, bfs_cnt, digests_cnt, digests_offset);
616 }
617
618 extern "C" __global__ void __launch_bounds__ (256, 1) m01420_s04 (const pw_t *pws, const gpu_rule_t *rules_buf, const comb_t *combs_buf, const bf_t *bfs_buf, const void *tmps, void *hooks, const u32 *bitmaps_buf_s1_a, const u32 *bitmaps_buf_s1_b, const u32 *bitmaps_buf_s1_c, const u32 *bitmaps_buf_s1_d, const u32 *bitmaps_buf_s2_a, const u32 *bitmaps_buf_s2_b, const u32 *bitmaps_buf_s2_c, const u32 *bitmaps_buf_s2_d, plain_t *plains_buf, const digest_t *digests_buf, u32 *hashes_shown, const salt_t *salt_bufs, const void *esalt_bufs, u32 *d_return_buf, u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 bfs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
619 {
620   /**
621    * base
622    */
623
624   const u32 gid = (blockIdx.x * blockDim.x) + threadIdx.x;
625
626   if (gid >= gid_max) return;
627
628   u32x w0[4];
629
630   w0[0] = pws[gid].i[ 0];
631   w0[1] = pws[gid].i[ 1];
632   w0[2] = pws[gid].i[ 2];
633   w0[3] = pws[gid].i[ 3];
634
635   u32x w1[4];
636
637   w1[0] = 0;
638   w1[1] = 0;
639   w1[2] = 0;
640   w1[3] = 0;
641
642   u32x w2[4];
643
644   w2[0] = 0;
645   w2[1] = 0;
646   w2[2] = 0;
647   w2[3] = 0;
648
649   u32x w3[4];
650
651   w3[0] = 0;
652   w3[1] = 0;
653   w3[2] = 0;
654   w3[3] = 0;
655
656   const u32 pw_len = pws[gid].pw_len;
657
658   /**
659    * main
660    */
661
662   m01420s (w0, w1, w2, w3, pw_len, pws, rules_buf, combs_buf, bfs_buf, tmps, hooks, bitmaps_buf_s1_a, bitmaps_buf_s1_b, bitmaps_buf_s1_c, bitmaps_buf_s1_d, bitmaps_buf_s2_a, bitmaps_buf_s2_b, bitmaps_buf_s2_c, bitmaps_buf_s2_d, plains_buf, digests_buf, hashes_shown, salt_bufs, esalt_bufs, d_return_buf, d_scryptV_buf, bitmap_mask, bitmap_shift1, bitmap_shift2, salt_pos, loop_pos, loop_cnt, bfs_cnt, digests_cnt, digests_offset);
663 }
664
665 extern "C" __global__ void __launch_bounds__ (256, 1) m01420_s08 (const pw_t *pws, const gpu_rule_t *rules_buf, const comb_t *combs_buf, const bf_t *bfs_buf, const void *tmps, void *hooks, const u32 *bitmaps_buf_s1_a, const u32 *bitmaps_buf_s1_b, const u32 *bitmaps_buf_s1_c, const u32 *bitmaps_buf_s1_d, const u32 *bitmaps_buf_s2_a, const u32 *bitmaps_buf_s2_b, const u32 *bitmaps_buf_s2_c, const u32 *bitmaps_buf_s2_d, plain_t *plains_buf, const digest_t *digests_buf, u32 *hashes_shown, const salt_t *salt_bufs, const void *esalt_bufs, u32 *d_return_buf, u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 bfs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
666 {
667   /**
668    * base
669    */
670
671   const u32 gid = (blockIdx.x * blockDim.x) + threadIdx.x;
672
673   if (gid >= gid_max) return;
674
675   u32x w0[4];
676
677   w0[0] = pws[gid].i[ 0];
678   w0[1] = pws[gid].i[ 1];
679   w0[2] = pws[gid].i[ 2];
680   w0[3] = pws[gid].i[ 3];
681
682   u32x w1[4];
683
684   w1[0] = pws[gid].i[ 4];
685   w1[1] = pws[gid].i[ 5];
686   w1[2] = pws[gid].i[ 6];
687   w1[3] = pws[gid].i[ 7];
688
689   u32x w2[4];
690
691   w2[0] = 0;
692   w2[1] = 0;
693   w2[2] = 0;
694   w2[3] = 0;
695
696   u32x w3[4];
697
698   w3[0] = 0;
699   w3[1] = 0;
700   w3[2] = 0;
701   w3[3] = 0;
702
703   const u32 pw_len = pws[gid].pw_len;
704
705   /**
706    * main
707    */
708
709   m01420s (w0, w1, w2, w3, pw_len, pws, rules_buf, combs_buf, bfs_buf, tmps, hooks, bitmaps_buf_s1_a, bitmaps_buf_s1_b, bitmaps_buf_s1_c, bitmaps_buf_s1_d, bitmaps_buf_s2_a, bitmaps_buf_s2_b, bitmaps_buf_s2_c, bitmaps_buf_s2_d, plains_buf, digests_buf, hashes_shown, salt_bufs, esalt_bufs, d_return_buf, d_scryptV_buf, bitmap_mask, bitmap_shift1, bitmap_shift2, salt_pos, loop_pos, loop_cnt, bfs_cnt, digests_cnt, digests_offset);
710 }
711
712 extern "C" __global__ void __launch_bounds__ (256, 1) m01420_s16 (const pw_t *pws, const gpu_rule_t *rules_buf, const comb_t *combs_buf, const bf_t *bfs_buf, const void *tmps, void *hooks, const u32 *bitmaps_buf_s1_a, const u32 *bitmaps_buf_s1_b, const u32 *bitmaps_buf_s1_c, const u32 *bitmaps_buf_s1_d, const u32 *bitmaps_buf_s2_a, const u32 *bitmaps_buf_s2_b, const u32 *bitmaps_buf_s2_c, const u32 *bitmaps_buf_s2_d, plain_t *plains_buf, const digest_t *digests_buf, u32 *hashes_shown, const salt_t *salt_bufs, const void *esalt_bufs, u32 *d_return_buf, u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 bfs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
713 {
714   /**
715    * base
716    */
717
718   const u32 gid = (blockIdx.x * blockDim.x) + threadIdx.x;
719
720   if (gid >= gid_max) return;
721
722   u32x w0[4];
723
724   w0[0] = pws[gid].i[ 0];
725   w0[1] = pws[gid].i[ 1];
726   w0[2] = pws[gid].i[ 2];
727   w0[3] = pws[gid].i[ 3];
728
729   u32x w1[4];
730
731   w1[0] = pws[gid].i[ 4];
732   w1[1] = pws[gid].i[ 5];
733   w1[2] = pws[gid].i[ 6];
734   w1[3] = pws[gid].i[ 7];
735
736   u32x w2[4];
737
738   w2[0] = pws[gid].i[ 8];
739   w2[1] = pws[gid].i[ 9];
740   w2[2] = pws[gid].i[10];
741   w2[3] = pws[gid].i[11];
742
743   u32x w3[4];
744
745   w3[0] = pws[gid].i[12];
746   w3[1] = pws[gid].i[13];
747   w3[2] = 0;
748   w3[3] = 0;
749
750   const u32 pw_len = pws[gid].pw_len;
751
752   /**
753    * main
754    */
755
756   m01420s (w0, w1, w2, w3, pw_len, pws, rules_buf, combs_buf, bfs_buf, tmps, hooks, bitmaps_buf_s1_a, bitmaps_buf_s1_b, bitmaps_buf_s1_c, bitmaps_buf_s1_d, bitmaps_buf_s2_a, bitmaps_buf_s2_b, bitmaps_buf_s2_c, bitmaps_buf_s2_d, plains_buf, digests_buf, hashes_shown, salt_bufs, esalt_bufs, d_return_buf, d_scryptV_buf, bitmap_mask, bitmap_shift1, bitmap_shift2, salt_pos, loop_pos, loop_cnt, bfs_cnt, digests_cnt, digests_offset);
757 }