- Dropped all vector code since new GPU's are all scalar, makes the code much easier
[hashcat.git] / OpenCL / m01750_a3.cl
1 /**
2  * Author......: Jens Steube <jens.steube@gmail.com>
3  * License.....: MIT
4  */
5
6 #define _SHA512_
7
8 #include "include/constants.h"
9 #include "include/kernel_vendor.h"
10
11 #define DGST_R0 14
12 #define DGST_R1 15
13 #define DGST_R2 6
14 #define DGST_R3 7
15
16 #include "include/kernel_functions.c"
17 #include "types_ocl.c"
18 #include "common.c"
19
20 #define COMPARE_S "check_single_comp4.c"
21 #define COMPARE_M "check_multi_comp4.c"
22
23 __constant u64 k_sha512[80] =
24 {
25   SHA512C00, SHA512C01, SHA512C02, SHA512C03,
26   SHA512C04, SHA512C05, SHA512C06, SHA512C07,
27   SHA512C08, SHA512C09, SHA512C0a, SHA512C0b,
28   SHA512C0c, SHA512C0d, SHA512C0e, SHA512C0f,
29   SHA512C10, SHA512C11, SHA512C12, SHA512C13,
30   SHA512C14, SHA512C15, SHA512C16, SHA512C17,
31   SHA512C18, SHA512C19, SHA512C1a, SHA512C1b,
32   SHA512C1c, SHA512C1d, SHA512C1e, SHA512C1f,
33   SHA512C20, SHA512C21, SHA512C22, SHA512C23,
34   SHA512C24, SHA512C25, SHA512C26, SHA512C27,
35   SHA512C28, SHA512C29, SHA512C2a, SHA512C2b,
36   SHA512C2c, SHA512C2d, SHA512C2e, SHA512C2f,
37   SHA512C30, SHA512C31, SHA512C32, SHA512C33,
38   SHA512C34, SHA512C35, SHA512C36, SHA512C37,
39   SHA512C38, SHA512C39, SHA512C3a, SHA512C3b,
40   SHA512C3c, SHA512C3d, SHA512C3e, SHA512C3f,
41   SHA512C40, SHA512C41, SHA512C42, SHA512C43,
42   SHA512C44, SHA512C45, SHA512C46, SHA512C47,
43   SHA512C48, SHA512C49, SHA512C4a, SHA512C4b,
44   SHA512C4c, SHA512C4d, SHA512C4e, SHA512C4f,
45 };
46
47 static void sha512_transform (const u64 w0[4], const u64 w1[4], const u64 w2[4], const u64 w3[4], u64 digest[8])
48 {
49   u64 w0_t = w0[0];
50   u64 w1_t = w0[1];
51   u64 w2_t = w0[2];
52   u64 w3_t = w0[3];
53   u64 w4_t = w1[0];
54   u64 w5_t = w1[1];
55   u64 w6_t = w1[2];
56   u64 w7_t = w1[3];
57   u64 w8_t = w2[0];
58   u64 w9_t = w2[1];
59   u64 wa_t = w2[2];
60   u64 wb_t = w2[3];
61   u64 wc_t = w3[0];
62   u64 wd_t = w3[1];
63   u64 we_t = w3[2];
64   u64 wf_t = w3[3];
65
66   u64 a = digest[0];
67   u64 b = digest[1];
68   u64 c = digest[2];
69   u64 d = digest[3];
70   u64 e = digest[4];
71   u64 f = digest[5];
72   u64 g = digest[6];
73   u64 h = digest[7];
74
75   #define ROUND_EXPAND()                            \
76   {                                                 \
77     w0_t = SHA512_EXPAND (we_t, w9_t, w1_t, w0_t);  \
78     w1_t = SHA512_EXPAND (wf_t, wa_t, w2_t, w1_t);  \
79     w2_t = SHA512_EXPAND (w0_t, wb_t, w3_t, w2_t);  \
80     w3_t = SHA512_EXPAND (w1_t, wc_t, w4_t, w3_t);  \
81     w4_t = SHA512_EXPAND (w2_t, wd_t, w5_t, w4_t);  \
82     w5_t = SHA512_EXPAND (w3_t, we_t, w6_t, w5_t);  \
83     w6_t = SHA512_EXPAND (w4_t, wf_t, w7_t, w6_t);  \
84     w7_t = SHA512_EXPAND (w5_t, w0_t, w8_t, w7_t);  \
85     w8_t = SHA512_EXPAND (w6_t, w1_t, w9_t, w8_t);  \
86     w9_t = SHA512_EXPAND (w7_t, w2_t, wa_t, w9_t);  \
87     wa_t = SHA512_EXPAND (w8_t, w3_t, wb_t, wa_t);  \
88     wb_t = SHA512_EXPAND (w9_t, w4_t, wc_t, wb_t);  \
89     wc_t = SHA512_EXPAND (wa_t, w5_t, wd_t, wc_t);  \
90     wd_t = SHA512_EXPAND (wb_t, w6_t, we_t, wd_t);  \
91     we_t = SHA512_EXPAND (wc_t, w7_t, wf_t, we_t);  \
92     wf_t = SHA512_EXPAND (wd_t, w8_t, w0_t, wf_t);  \
93   }
94
95   #define ROUND_STEP(i)                                                                   \
96   {                                                                                       \
97     SHA512_STEP (SHA512_F0o, SHA512_F1o, a, b, c, d, e, f, g, h, w0_t, k_sha512[i +  0]); \
98     SHA512_STEP (SHA512_F0o, SHA512_F1o, h, a, b, c, d, e, f, g, w1_t, k_sha512[i +  1]); \
99     SHA512_STEP (SHA512_F0o, SHA512_F1o, g, h, a, b, c, d, e, f, w2_t, k_sha512[i +  2]); \
100     SHA512_STEP (SHA512_F0o, SHA512_F1o, f, g, h, a, b, c, d, e, w3_t, k_sha512[i +  3]); \
101     SHA512_STEP (SHA512_F0o, SHA512_F1o, e, f, g, h, a, b, c, d, w4_t, k_sha512[i +  4]); \
102     SHA512_STEP (SHA512_F0o, SHA512_F1o, d, e, f, g, h, a, b, c, w5_t, k_sha512[i +  5]); \
103     SHA512_STEP (SHA512_F0o, SHA512_F1o, c, d, e, f, g, h, a, b, w6_t, k_sha512[i +  6]); \
104     SHA512_STEP (SHA512_F0o, SHA512_F1o, b, c, d, e, f, g, h, a, w7_t, k_sha512[i +  7]); \
105     SHA512_STEP (SHA512_F0o, SHA512_F1o, a, b, c, d, e, f, g, h, w8_t, k_sha512[i +  8]); \
106     SHA512_STEP (SHA512_F0o, SHA512_F1o, h, a, b, c, d, e, f, g, w9_t, k_sha512[i +  9]); \
107     SHA512_STEP (SHA512_F0o, SHA512_F1o, g, h, a, b, c, d, e, f, wa_t, k_sha512[i + 10]); \
108     SHA512_STEP (SHA512_F0o, SHA512_F1o, f, g, h, a, b, c, d, e, wb_t, k_sha512[i + 11]); \
109     SHA512_STEP (SHA512_F0o, SHA512_F1o, e, f, g, h, a, b, c, d, wc_t, k_sha512[i + 12]); \
110     SHA512_STEP (SHA512_F0o, SHA512_F1o, d, e, f, g, h, a, b, c, wd_t, k_sha512[i + 13]); \
111     SHA512_STEP (SHA512_F0o, SHA512_F1o, c, d, e, f, g, h, a, b, we_t, k_sha512[i + 14]); \
112     SHA512_STEP (SHA512_F0o, SHA512_F1o, b, c, d, e, f, g, h, a, wf_t, k_sha512[i + 15]); \
113   }
114
115   ROUND_STEP (0);
116
117   //#pragma unroll // kernel fails if used
118   for (int i = 16; i < 80; i += 16)
119   {
120     ROUND_EXPAND (); ROUND_STEP (i);
121   }
122
123   digest[0] += a;
124   digest[1] += b;
125   digest[2] += c;
126   digest[3] += d;
127   digest[4] += e;
128   digest[5] += f;
129   digest[6] += g;
130   digest[7] += h;
131 }
132
133 static void hmac_sha512_pad (u32 w0[4], u32 w1[4], u32 w2[4], u32 w3[4], u64 ipad[8], u64 opad[8])
134 {
135   u64 w0_t[4];
136   u64 w1_t[4];
137   u64 w2_t[4];
138   u64 w3_t[4];
139
140   w0_t[0] = hl32_to_64 (w0[0], w0[1]) ^ 0x3636363636363636;
141   w0_t[1] = hl32_to_64 (w0[2], w0[3]) ^ 0x3636363636363636;
142   w0_t[2] = hl32_to_64 (w1[0], w1[1]) ^ 0x3636363636363636;
143   w0_t[3] = hl32_to_64 (w1[2], w1[3]) ^ 0x3636363636363636;
144   w1_t[0] = hl32_to_64 (w2[0], w2[1]) ^ 0x3636363636363636;
145   w1_t[1] = hl32_to_64 (w2[2], w2[3]) ^ 0x3636363636363636;
146   w1_t[2] = hl32_to_64 (w3[0], w3[1]) ^ 0x3636363636363636;
147   w1_t[3] = hl32_to_64 (w3[2], w3[3]) ^ 0x3636363636363636;
148   w2_t[0] =                                     0x3636363636363636;
149   w2_t[1] =                                     0x3636363636363636;
150   w2_t[2] =                                     0x3636363636363636;
151   w2_t[3] =                                     0x3636363636363636;
152   w3_t[0] =                                     0x3636363636363636;
153   w3_t[1] =                                     0x3636363636363636;
154   w3_t[2] =                                     0x3636363636363636;
155   w3_t[3] =                                     0x3636363636363636;
156
157   ipad[0] = SHA512M_A;
158   ipad[1] = SHA512M_B;
159   ipad[2] = SHA512M_C;
160   ipad[3] = SHA512M_D;
161   ipad[4] = SHA512M_E;
162   ipad[5] = SHA512M_F;
163   ipad[6] = SHA512M_G;
164   ipad[7] = SHA512M_H;
165
166   sha512_transform (w0_t, w1_t, w2_t, w3_t, ipad);
167
168   w0_t[0] = hl32_to_64 (w0[0], w0[1]) ^ 0x5c5c5c5c5c5c5c5c;
169   w0_t[1] = hl32_to_64 (w0[2], w0[3]) ^ 0x5c5c5c5c5c5c5c5c;
170   w0_t[2] = hl32_to_64 (w1[0], w1[1]) ^ 0x5c5c5c5c5c5c5c5c;
171   w0_t[3] = hl32_to_64 (w1[2], w1[3]) ^ 0x5c5c5c5c5c5c5c5c;
172   w1_t[0] = hl32_to_64 (w2[0], w2[1]) ^ 0x5c5c5c5c5c5c5c5c;
173   w1_t[1] = hl32_to_64 (w2[2], w2[3]) ^ 0x5c5c5c5c5c5c5c5c;
174   w1_t[2] = hl32_to_64 (w3[0], w3[1]) ^ 0x5c5c5c5c5c5c5c5c;
175   w1_t[3] = hl32_to_64 (w3[2], w3[3]) ^ 0x5c5c5c5c5c5c5c5c;
176   w2_t[0] =                                     0x5c5c5c5c5c5c5c5c;
177   w2_t[1] =                                     0x5c5c5c5c5c5c5c5c;
178   w2_t[2] =                                     0x5c5c5c5c5c5c5c5c;
179   w2_t[3] =                                     0x5c5c5c5c5c5c5c5c;
180   w3_t[0] =                                     0x5c5c5c5c5c5c5c5c;
181   w3_t[1] =                                     0x5c5c5c5c5c5c5c5c;
182   w3_t[2] =                                     0x5c5c5c5c5c5c5c5c;
183   w3_t[3] =                                     0x5c5c5c5c5c5c5c5c;
184
185   opad[0] = SHA512M_A;
186   opad[1] = SHA512M_B;
187   opad[2] = SHA512M_C;
188   opad[3] = SHA512M_D;
189   opad[4] = SHA512M_E;
190   opad[5] = SHA512M_F;
191   opad[6] = SHA512M_G;
192   opad[7] = SHA512M_H;
193
194   sha512_transform (w0_t, w1_t, w2_t, w3_t, opad);
195 }
196
197 static void hmac_sha512_run (u32 w0[4], u32 w1[4], u32 w2[4], u32 w3[4], u64 ipad[8], u64 opad[8], u64 digest[8])
198 {
199   u64 w0_t[4];
200   u64 w1_t[4];
201   u64 w2_t[4];
202   u64 w3_t[4];
203
204   w0_t[0] = hl32_to_64 (w0[0], w0[1]);
205   w0_t[1] = hl32_to_64 (w0[2], w0[3]);
206   w0_t[2] = hl32_to_64 (w1[0], w1[1]);
207   w0_t[3] = hl32_to_64 (w1[2], w1[3]);
208   w1_t[0] = hl32_to_64 (w2[0], w2[1]);
209   w1_t[1] = hl32_to_64 (w2[2], w2[3]);
210   w1_t[2] = hl32_to_64 (w3[0], w3[1]);
211   w1_t[3] = 0;
212   w2_t[0] = 0;
213   w2_t[1] = 0;
214   w2_t[2] = 0;
215   w2_t[3] = 0;
216   w3_t[0] = 0;
217   w3_t[1] = 0;
218   w3_t[2] = 0;
219   w3_t[3] = hl32_to_64 (w3[2], w3[3]);
220
221   digest[0] = ipad[0];
222   digest[1] = ipad[1];
223   digest[2] = ipad[2];
224   digest[3] = ipad[3];
225   digest[4] = ipad[4];
226   digest[5] = ipad[5];
227   digest[6] = ipad[6];
228   digest[7] = ipad[7];
229
230   sha512_transform (w0_t, w1_t, w2_t, w3_t, digest);
231
232   w0_t[0] = digest[0];
233   w0_t[1] = digest[1];
234   w0_t[2] = digest[2];
235   w0_t[3] = digest[3];
236   w1_t[0] = digest[4];
237   w1_t[1] = digest[5];
238   w1_t[2] = digest[6];
239   w1_t[3] = digest[7];
240   w2_t[0] = 0x8000000000000000;
241   w2_t[1] = 0;
242   w2_t[2] = 0;
243   w2_t[3] = 0;
244   w3_t[0] = 0;
245   w3_t[1] = 0;
246   w3_t[2] = 0;
247   w3_t[3] = (128 + 64) * 8;
248
249   digest[0] = opad[0];
250   digest[1] = opad[1];
251   digest[2] = opad[2];
252   digest[3] = opad[3];
253   digest[4] = opad[4];
254   digest[5] = opad[5];
255   digest[6] = opad[6];
256   digest[7] = opad[7];
257
258   sha512_transform (w0_t, w1_t, w2_t, w3_t, digest);
259 }
260
261 static void m01750m (u32 w0[4], u32 w1[4], u32 w2[4], u32 w3[4], const u32 pw_len, __global pw_t *pws, __global gpu_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 bfs_cnt, const u32 digests_cnt, const u32 digests_offset)
262 {
263   /**
264    * modifier
265    */
266
267   const u32 gid = get_global_id (0);
268   const u32 lid = get_local_id (0);
269
270   /**
271    * salt
272    */
273
274   u32 salt_buf0[4];
275
276   salt_buf0[0] = salt_bufs[salt_pos].salt_buf[ 0];
277   salt_buf0[1] = salt_bufs[salt_pos].salt_buf[ 1];
278   salt_buf0[2] = salt_bufs[salt_pos].salt_buf[ 2];
279   salt_buf0[3] = salt_bufs[salt_pos].salt_buf[ 3];
280
281   u32 salt_buf1[4];
282
283   salt_buf1[0] = salt_bufs[salt_pos].salt_buf[ 4];
284   salt_buf1[1] = salt_bufs[salt_pos].salt_buf[ 5];
285   salt_buf1[2] = salt_bufs[salt_pos].salt_buf[ 6];
286   salt_buf1[3] = salt_bufs[salt_pos].salt_buf[ 7];
287
288   const u32 salt_len = salt_bufs[salt_pos].salt_len;
289
290   /**
291    * loop
292    */
293
294   u32 w0l = w0[0];
295
296   for (u32 il_pos = 0; il_pos < bfs_cnt; il_pos++)
297   {
298     const u32 w0r = bfs_buf[il_pos].i;
299
300     w0[0] = w0l | w0r;
301
302     /**
303      * pads
304      */
305
306     u32 w0_t[4];
307
308     w0_t[0] = w0[0];
309     w0_t[1] = w0[1];
310     w0_t[2] = w0[2];
311     w0_t[3] = w0[3];
312
313     u32 w1_t[4];
314
315     w1_t[0] = w1[0];
316     w1_t[1] = w1[1];
317     w1_t[2] = w1[2];
318     w1_t[3] = w1[3];
319
320     u32 w2_t[4];
321
322     w2_t[0] = w2[0];
323     w2_t[1] = w2[1];
324     w2_t[2] = w2[2];
325     w2_t[3] = w2[3];
326
327     u32 w3_t[4];
328
329     w3_t[0] = w3[0];
330     w3_t[1] = w3[1];
331     w3_t[2] = 0;
332     w3_t[3] = 0;
333
334     u64 ipad[8];
335     u64 opad[8];
336
337     hmac_sha512_pad (w0_t, w1_t, w2_t, w3_t, ipad, opad);
338
339     w0_t[0] = swap_workaround (salt_buf0[0]);
340     w0_t[1] = swap_workaround (salt_buf0[1]);
341     w0_t[2] = swap_workaround (salt_buf0[2]);
342     w0_t[3] = swap_workaround (salt_buf0[3]);
343     w1_t[0] = swap_workaround (salt_buf1[0]);
344     w1_t[1] = swap_workaround (salt_buf1[1]);
345     w1_t[2] = swap_workaround (salt_buf1[2]);
346     w1_t[3] = swap_workaround (salt_buf1[3]);
347     w2_t[0] = 0;
348     w2_t[1] = 0;
349     w2_t[2] = 0;
350     w2_t[3] = 0;
351     w3_t[0] = 0;
352     w3_t[1] = 0;
353     w3_t[2] = 0;
354     w3_t[3] = (128 + salt_len) * 8;
355
356     u64 digest[8];
357
358     hmac_sha512_run (w0_t, w1_t, w2_t, w3_t, ipad, opad, digest);
359
360
361     const u32 r0 = l32_from_64 (digest[7]);
362     const u32 r1 = h32_from_64 (digest[7]);
363     const u32 r2 = l32_from_64 (digest[3]);
364     const u32 r3 = h32_from_64 (digest[3]);
365
366     #include COMPARE_M
367   }
368 }
369
370 static void m01750s (u32 w0[4], u32 w1[4], u32 w2[4], u32 w3[4], const u32 pw_len, __global pw_t *pws, __global gpu_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 bfs_cnt, const u32 digests_cnt, const u32 digests_offset)
371 {
372   /**
373    * modifier
374    */
375
376   const u32 gid = get_global_id (0);
377   const u32 lid = get_local_id (0);
378
379   /**
380    * salt
381    */
382
383   u32 salt_buf0[4];
384
385   salt_buf0[0] = salt_bufs[salt_pos].salt_buf[ 0];
386   salt_buf0[1] = salt_bufs[salt_pos].salt_buf[ 1];
387   salt_buf0[2] = salt_bufs[salt_pos].salt_buf[ 2];
388   salt_buf0[3] = salt_bufs[salt_pos].salt_buf[ 3];
389
390   u32 salt_buf1[4];
391
392   salt_buf1[0] = salt_bufs[salt_pos].salt_buf[ 4];
393   salt_buf1[1] = salt_bufs[salt_pos].salt_buf[ 5];
394   salt_buf1[2] = salt_bufs[salt_pos].salt_buf[ 6];
395   salt_buf1[3] = salt_bufs[salt_pos].salt_buf[ 7];
396
397   const u32 salt_len = salt_bufs[salt_pos].salt_len;
398
399   /**
400    * digest
401    */
402
403   const u32 search[4] =
404   {
405     digests_buf[digests_offset].digest_buf[DGST_R0],
406     digests_buf[digests_offset].digest_buf[DGST_R1],
407     digests_buf[digests_offset].digest_buf[DGST_R2],
408     digests_buf[digests_offset].digest_buf[DGST_R3]
409   };
410
411   /**
412    * loop
413    */
414
415   u32 w0l = w0[0];
416
417   for (u32 il_pos = 0; il_pos < bfs_cnt; il_pos++)
418   {
419     const u32 w0r = bfs_buf[il_pos].i;
420
421     w0[0] = w0l | w0r;
422
423     /**
424      * pads
425      */
426
427     u32 w0_t[4];
428
429     w0_t[0] = w0[0];
430     w0_t[1] = w0[1];
431     w0_t[2] = w0[2];
432     w0_t[3] = w0[3];
433
434     u32 w1_t[4];
435
436     w1_t[0] = w1[0];
437     w1_t[1] = w1[1];
438     w1_t[2] = w1[2];
439     w1_t[3] = w1[3];
440
441     u32 w2_t[4];
442
443     w2_t[0] = w2[0];
444     w2_t[1] = w2[1];
445     w2_t[2] = w2[2];
446     w2_t[3] = w2[3];
447
448     u32 w3_t[4];
449
450     w3_t[0] = w3[0];
451     w3_t[1] = w3[1];
452     w3_t[2] = 0;
453     w3_t[3] = 0;
454
455     u64 ipad[8];
456     u64 opad[8];
457
458     hmac_sha512_pad (w0_t, w1_t, w2_t, w3_t, ipad, opad);
459
460     w0_t[0] = swap_workaround (salt_buf0[0]);
461     w0_t[1] = swap_workaround (salt_buf0[1]);
462     w0_t[2] = swap_workaround (salt_buf0[2]);
463     w0_t[3] = swap_workaround (salt_buf0[3]);
464     w1_t[0] = swap_workaround (salt_buf1[0]);
465     w1_t[1] = swap_workaround (salt_buf1[1]);
466     w1_t[2] = swap_workaround (salt_buf1[2]);
467     w1_t[3] = swap_workaround (salt_buf1[3]);
468     w2_t[0] = 0;
469     w2_t[1] = 0;
470     w2_t[2] = 0;
471     w2_t[3] = 0;
472     w3_t[0] = 0;
473     w3_t[1] = 0;
474     w3_t[2] = 0;
475     w3_t[3] = (128 + salt_len) * 8;
476
477     u64 digest[8];
478
479     hmac_sha512_run (w0_t, w1_t, w2_t, w3_t, ipad, opad, digest);
480
481
482     const u32 r0 = l32_from_64 (digest[7]);
483     const u32 r1 = h32_from_64 (digest[7]);
484     const u32 r2 = l32_from_64 (digest[3]);
485     const u32 r3 = h32_from_64 (digest[3]);
486
487     #include COMPARE_S
488   }
489 }
490
491 __kernel void __attribute__((reqd_work_group_size (64, 1, 1))) m01750_m04 (__global pw_t *pws, __global gpu_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 bfs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
492 {
493   /**
494    * base
495    */
496
497   const u32 gid = get_global_id (0);
498
499   if (gid >= gid_max) return;
500
501   u32 w0[4];
502
503   w0[0] = pws[gid].i[ 0];
504   w0[1] = pws[gid].i[ 1];
505   w0[2] = pws[gid].i[ 2];
506   w0[3] = pws[gid].i[ 3];
507
508   u32 w1[4];
509
510   w1[0] = 0;
511   w1[1] = 0;
512   w1[2] = 0;
513   w1[3] = 0;
514
515   u32 w2[4];
516
517   w2[0] = 0;
518   w2[1] = 0;
519   w2[2] = 0;
520   w2[3] = 0;
521
522   u32 w3[4];
523
524   w3[0] = 0;
525   w3[1] = 0;
526   w3[2] = 0;
527   w3[3] = 0;
528
529   const u32 pw_len = pws[gid].pw_len;
530
531   /**
532    * main
533    */
534
535   m01750m (w0, w1, w2, w3, pw_len, pws, rules_buf, combs_buf, bfs_buf, tmps, hooks, bitmaps_buf_s1_a, bitmaps_buf_s1_b, bitmaps_buf_s1_c, bitmaps_buf_s1_d, bitmaps_buf_s2_a, bitmaps_buf_s2_b, bitmaps_buf_s2_c, bitmaps_buf_s2_d, plains_buf, digests_buf, hashes_shown, salt_bufs, esalt_bufs, d_return_buf, d_scryptV_buf, bitmap_mask, bitmap_shift1, bitmap_shift2, salt_pos, loop_pos, loop_cnt, bfs_cnt, digests_cnt, digests_offset);
536 }
537
538 __kernel void __attribute__((reqd_work_group_size (64, 1, 1))) m01750_m08 (__global pw_t *pws, __global gpu_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 bfs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
539 {
540   /**
541    * base
542    */
543
544   const u32 gid = get_global_id (0);
545
546   if (gid >= gid_max) return;
547
548   u32 w0[4];
549
550   w0[0] = pws[gid].i[ 0];
551   w0[1] = pws[gid].i[ 1];
552   w0[2] = pws[gid].i[ 2];
553   w0[3] = pws[gid].i[ 3];
554
555   u32 w1[4];
556
557   w1[0] = pws[gid].i[ 4];
558   w1[1] = pws[gid].i[ 5];
559   w1[2] = pws[gid].i[ 6];
560   w1[3] = pws[gid].i[ 7];
561
562   u32 w2[4];
563
564   w2[0] = 0;
565   w2[1] = 0;
566   w2[2] = 0;
567   w2[3] = 0;
568
569   u32 w3[4];
570
571   w3[0] = 0;
572   w3[1] = 0;
573   w3[2] = 0;
574   w3[3] = 0;
575
576   const u32 pw_len = pws[gid].pw_len;
577
578   /**
579    * main
580    */
581
582   m01750m (w0, w1, w2, w3, pw_len, pws, rules_buf, combs_buf, bfs_buf, tmps, hooks, bitmaps_buf_s1_a, bitmaps_buf_s1_b, bitmaps_buf_s1_c, bitmaps_buf_s1_d, bitmaps_buf_s2_a, bitmaps_buf_s2_b, bitmaps_buf_s2_c, bitmaps_buf_s2_d, plains_buf, digests_buf, hashes_shown, salt_bufs, esalt_bufs, d_return_buf, d_scryptV_buf, bitmap_mask, bitmap_shift1, bitmap_shift2, salt_pos, loop_pos, loop_cnt, bfs_cnt, digests_cnt, digests_offset);
583 }
584
585 __kernel void __attribute__((reqd_work_group_size (64, 1, 1))) m01750_m16 (__global pw_t *pws, __global gpu_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 bfs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
586 {
587   /**
588    * base
589    */
590
591   const u32 gid = get_global_id (0);
592
593   if (gid >= gid_max) return;
594
595   u32 w0[4];
596
597   w0[0] = pws[gid].i[ 0];
598   w0[1] = pws[gid].i[ 1];
599   w0[2] = pws[gid].i[ 2];
600   w0[3] = pws[gid].i[ 3];
601
602   u32 w1[4];
603
604   w1[0] = pws[gid].i[ 4];
605   w1[1] = pws[gid].i[ 5];
606   w1[2] = pws[gid].i[ 6];
607   w1[3] = pws[gid].i[ 7];
608
609   u32 w2[4];
610
611   w2[0] = pws[gid].i[ 8];
612   w2[1] = pws[gid].i[ 9];
613   w2[2] = pws[gid].i[10];
614   w2[3] = pws[gid].i[11];
615
616   u32 w3[4];
617
618   w3[0] = pws[gid].i[12];
619   w3[1] = pws[gid].i[13];
620   w3[2] = 0;
621   w3[3] = 0;
622
623   const u32 pw_len = pws[gid].pw_len;
624
625   /**
626    * main
627    */
628
629   m01750m (w0, w1, w2, w3, pw_len, pws, rules_buf, combs_buf, bfs_buf, tmps, hooks, bitmaps_buf_s1_a, bitmaps_buf_s1_b, bitmaps_buf_s1_c, bitmaps_buf_s1_d, bitmaps_buf_s2_a, bitmaps_buf_s2_b, bitmaps_buf_s2_c, bitmaps_buf_s2_d, plains_buf, digests_buf, hashes_shown, salt_bufs, esalt_bufs, d_return_buf, d_scryptV_buf, bitmap_mask, bitmap_shift1, bitmap_shift2, salt_pos, loop_pos, loop_cnt, bfs_cnt, digests_cnt, digests_offset);
630 }
631
632 __kernel void __attribute__((reqd_work_group_size (64, 1, 1))) m01750_s04 (__global pw_t *pws, __global gpu_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 bfs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
633 {
634   /**
635    * base
636    */
637
638   const u32 gid = get_global_id (0);
639
640   if (gid >= gid_max) return;
641
642   u32 w0[4];
643
644   w0[0] = pws[gid].i[ 0];
645   w0[1] = pws[gid].i[ 1];
646   w0[2] = pws[gid].i[ 2];
647   w0[3] = pws[gid].i[ 3];
648
649   u32 w1[4];
650
651   w1[0] = 0;
652   w1[1] = 0;
653   w1[2] = 0;
654   w1[3] = 0;
655
656   u32 w2[4];
657
658   w2[0] = 0;
659   w2[1] = 0;
660   w2[2] = 0;
661   w2[3] = 0;
662
663   u32 w3[4];
664
665   w3[0] = 0;
666   w3[1] = 0;
667   w3[2] = 0;
668   w3[3] = 0;
669
670   const u32 pw_len = pws[gid].pw_len;
671
672   /**
673    * main
674    */
675
676   m01750s (w0, w1, w2, w3, pw_len, pws, rules_buf, combs_buf, bfs_buf, tmps, hooks, bitmaps_buf_s1_a, bitmaps_buf_s1_b, bitmaps_buf_s1_c, bitmaps_buf_s1_d, bitmaps_buf_s2_a, bitmaps_buf_s2_b, bitmaps_buf_s2_c, bitmaps_buf_s2_d, plains_buf, digests_buf, hashes_shown, salt_bufs, esalt_bufs, d_return_buf, d_scryptV_buf, bitmap_mask, bitmap_shift1, bitmap_shift2, salt_pos, loop_pos, loop_cnt, bfs_cnt, digests_cnt, digests_offset);
677 }
678
679 __kernel void __attribute__((reqd_work_group_size (64, 1, 1))) m01750_s08 (__global pw_t *pws, __global gpu_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 bfs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
680 {
681   /**
682    * base
683    */
684
685   const u32 gid = get_global_id (0);
686
687   if (gid >= gid_max) return;
688
689   u32 w0[4];
690
691   w0[0] = pws[gid].i[ 0];
692   w0[1] = pws[gid].i[ 1];
693   w0[2] = pws[gid].i[ 2];
694   w0[3] = pws[gid].i[ 3];
695
696   u32 w1[4];
697
698   w1[0] = pws[gid].i[ 4];
699   w1[1] = pws[gid].i[ 5];
700   w1[2] = pws[gid].i[ 6];
701   w1[3] = pws[gid].i[ 7];
702
703   u32 w2[4];
704
705   w2[0] = 0;
706   w2[1] = 0;
707   w2[2] = 0;
708   w2[3] = 0;
709
710   u32 w3[4];
711
712   w3[0] = 0;
713   w3[1] = 0;
714   w3[2] = 0;
715   w3[3] = 0;
716
717   const u32 pw_len = pws[gid].pw_len;
718
719   /**
720    * main
721    */
722
723   m01750s (w0, w1, w2, w3, pw_len, pws, rules_buf, combs_buf, bfs_buf, tmps, hooks, bitmaps_buf_s1_a, bitmaps_buf_s1_b, bitmaps_buf_s1_c, bitmaps_buf_s1_d, bitmaps_buf_s2_a, bitmaps_buf_s2_b, bitmaps_buf_s2_c, bitmaps_buf_s2_d, plains_buf, digests_buf, hashes_shown, salt_bufs, esalt_bufs, d_return_buf, d_scryptV_buf, bitmap_mask, bitmap_shift1, bitmap_shift2, salt_pos, loop_pos, loop_cnt, bfs_cnt, digests_cnt, digests_offset);
724 }
725
726 __kernel void __attribute__((reqd_work_group_size (64, 1, 1))) m01750_s16 (__global pw_t *pws, __global gpu_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 bfs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
727 {
728   /**
729    * base
730    */
731
732   const u32 gid = get_global_id (0);
733
734   if (gid >= gid_max) return;
735
736   u32 w0[4];
737
738   w0[0] = pws[gid].i[ 0];
739   w0[1] = pws[gid].i[ 1];
740   w0[2] = pws[gid].i[ 2];
741   w0[3] = pws[gid].i[ 3];
742
743   u32 w1[4];
744
745   w1[0] = pws[gid].i[ 4];
746   w1[1] = pws[gid].i[ 5];
747   w1[2] = pws[gid].i[ 6];
748   w1[3] = pws[gid].i[ 7];
749
750   u32 w2[4];
751
752   w2[0] = pws[gid].i[ 8];
753   w2[1] = pws[gid].i[ 9];
754   w2[2] = pws[gid].i[10];
755   w2[3] = pws[gid].i[11];
756
757   u32 w3[4];
758
759   w3[0] = pws[gid].i[12];
760   w3[1] = pws[gid].i[13];
761   w3[2] = 0;
762   w3[3] = 0;
763
764   const u32 pw_len = pws[gid].pw_len;
765
766   /**
767    * main
768    */
769
770   m01750s (w0, w1, w2, w3, pw_len, pws, rules_buf, combs_buf, bfs_buf, tmps, hooks, bitmaps_buf_s1_a, bitmaps_buf_s1_b, bitmaps_buf_s1_c, bitmaps_buf_s1_d, bitmaps_buf_s2_a, bitmaps_buf_s2_b, bitmaps_buf_s2_c, bitmaps_buf_s2_d, plains_buf, digests_buf, hashes_shown, salt_bufs, esalt_bufs, d_return_buf, d_scryptV_buf, bitmap_mask, bitmap_shift1, bitmap_shift2, salt_pos, loop_pos, loop_cnt, bfs_cnt, digests_cnt, digests_offset);
771 }