Initial commit
[hashcat.git] / amd / m01760_a0.cl
1 /**
2  * Author......: Jens Steube <jens.steube@gmail.com>
3  * License.....: MIT
4  */
5
6 #define _SHA512_
7
8 #include "include/constants.h"
9 #include "include/kernel_vendor.h"
10
11 #ifdef  VLIW1
12 #define VECT_SIZE1
13 #endif
14
15 #ifdef  VLIW4
16 #define VECT_SIZE1
17 #endif
18
19 #ifdef  VLIW5
20 #define VECT_SIZE1
21 #endif
22
23 #define DGST_R0 14
24 #define DGST_R1 15
25 #define DGST_R2 6
26 #define DGST_R3 7
27
28 #include "include/kernel_functions.c"
29 #include "types_amd.c"
30 #include "common_amd.c"
31 #include "include/rp_gpu.h"
32 #include "rp_amd.c"
33
34 #ifdef  VECT_SIZE1
35 #define VECT_COMPARE_S "check_single_vect1_comp4.c"
36 #define VECT_COMPARE_M "check_multi_vect1_comp4.c"
37 #endif
38
39 #ifdef  VECT_SIZE2
40 #define VECT_COMPARE_S "check_single_vect2_comp4.c"
41 #define VECT_COMPARE_M "check_multi_vect2_comp4.c"
42 #endif
43
44 #ifdef  VECT_SIZE4
45 #define VECT_COMPARE_S "check_single_vect4_comp4.c"
46 #define VECT_COMPARE_M "check_multi_vect4_comp4.c"
47 #endif
48
49 __constant u64 k_sha512[80] =
50 {
51   SHA512C00, SHA512C01, SHA512C02, SHA512C03,
52   SHA512C04, SHA512C05, SHA512C06, SHA512C07,
53   SHA512C08, SHA512C09, SHA512C0a, SHA512C0b,
54   SHA512C0c, SHA512C0d, SHA512C0e, SHA512C0f,
55   SHA512C10, SHA512C11, SHA512C12, SHA512C13,
56   SHA512C14, SHA512C15, SHA512C16, SHA512C17,
57   SHA512C18, SHA512C19, SHA512C1a, SHA512C1b,
58   SHA512C1c, SHA512C1d, SHA512C1e, SHA512C1f,
59   SHA512C20, SHA512C21, SHA512C22, SHA512C23,
60   SHA512C24, SHA512C25, SHA512C26, SHA512C27,
61   SHA512C28, SHA512C29, SHA512C2a, SHA512C2b,
62   SHA512C2c, SHA512C2d, SHA512C2e, SHA512C2f,
63   SHA512C30, SHA512C31, SHA512C32, SHA512C33,
64   SHA512C34, SHA512C35, SHA512C36, SHA512C37,
65   SHA512C38, SHA512C39, SHA512C3a, SHA512C3b,
66   SHA512C3c, SHA512C3d, SHA512C3e, SHA512C3f,
67   SHA512C40, SHA512C41, SHA512C42, SHA512C43,
68   SHA512C44, SHA512C45, SHA512C46, SHA512C47,
69   SHA512C48, SHA512C49, SHA512C4a, SHA512C4b,
70   SHA512C4c, SHA512C4d, SHA512C4e, SHA512C4f,
71 };
72
73 static void sha512_transform (const u64x w0[4], const u64x w1[4], const u64x w2[4], const u64x w3[4], u64x digest[8])
74 {
75   u64x w0_t = w0[0];
76   u64x w1_t = w0[1];
77   u64x w2_t = w0[2];
78   u64x w3_t = w0[3];
79   u64x w4_t = w1[0];
80   u64x w5_t = w1[1];
81   u64x w6_t = w1[2];
82   u64x w7_t = w1[3];
83   u64x w8_t = w2[0];
84   u64x w9_t = w2[1];
85   u64x wa_t = w2[2];
86   u64x wb_t = w2[3];
87   u64x wc_t = w3[0];
88   u64x wd_t = w3[1];
89   u64x we_t = w3[2];
90   u64x wf_t = w3[3];
91
92   u64x a = digest[0];
93   u64x b = digest[1];
94   u64x c = digest[2];
95   u64x d = digest[3];
96   u64x e = digest[4];
97   u64x f = digest[5];
98   u64x g = digest[6];
99   u64x h = digest[7];
100
101   #define ROUND_EXPAND()                            \
102   {                                                 \
103     w0_t = SHA512_EXPAND (we_t, w9_t, w1_t, w0_t);  \
104     w1_t = SHA512_EXPAND (wf_t, wa_t, w2_t, w1_t);  \
105     w2_t = SHA512_EXPAND (w0_t, wb_t, w3_t, w2_t);  \
106     w3_t = SHA512_EXPAND (w1_t, wc_t, w4_t, w3_t);  \
107     w4_t = SHA512_EXPAND (w2_t, wd_t, w5_t, w4_t);  \
108     w5_t = SHA512_EXPAND (w3_t, we_t, w6_t, w5_t);  \
109     w6_t = SHA512_EXPAND (w4_t, wf_t, w7_t, w6_t);  \
110     w7_t = SHA512_EXPAND (w5_t, w0_t, w8_t, w7_t);  \
111     w8_t = SHA512_EXPAND (w6_t, w1_t, w9_t, w8_t);  \
112     w9_t = SHA512_EXPAND (w7_t, w2_t, wa_t, w9_t);  \
113     wa_t = SHA512_EXPAND (w8_t, w3_t, wb_t, wa_t);  \
114     wb_t = SHA512_EXPAND (w9_t, w4_t, wc_t, wb_t);  \
115     wc_t = SHA512_EXPAND (wa_t, w5_t, wd_t, wc_t);  \
116     wd_t = SHA512_EXPAND (wb_t, w6_t, we_t, wd_t);  \
117     we_t = SHA512_EXPAND (wc_t, w7_t, wf_t, we_t);  \
118     wf_t = SHA512_EXPAND (wd_t, w8_t, w0_t, wf_t);  \
119   }
120
121   #define ROUND_STEP(i)                                                                   \
122   {                                                                                       \
123     SHA512_STEP (SHA512_F0o, SHA512_F1o, a, b, c, d, e, f, g, h, w0_t, k_sha512[i +  0]); \
124     SHA512_STEP (SHA512_F0o, SHA512_F1o, h, a, b, c, d, e, f, g, w1_t, k_sha512[i +  1]); \
125     SHA512_STEP (SHA512_F0o, SHA512_F1o, g, h, a, b, c, d, e, f, w2_t, k_sha512[i +  2]); \
126     SHA512_STEP (SHA512_F0o, SHA512_F1o, f, g, h, a, b, c, d, e, w3_t, k_sha512[i +  3]); \
127     SHA512_STEP (SHA512_F0o, SHA512_F1o, e, f, g, h, a, b, c, d, w4_t, k_sha512[i +  4]); \
128     SHA512_STEP (SHA512_F0o, SHA512_F1o, d, e, f, g, h, a, b, c, w5_t, k_sha512[i +  5]); \
129     SHA512_STEP (SHA512_F0o, SHA512_F1o, c, d, e, f, g, h, a, b, w6_t, k_sha512[i +  6]); \
130     SHA512_STEP (SHA512_F0o, SHA512_F1o, b, c, d, e, f, g, h, a, w7_t, k_sha512[i +  7]); \
131     SHA512_STEP (SHA512_F0o, SHA512_F1o, a, b, c, d, e, f, g, h, w8_t, k_sha512[i +  8]); \
132     SHA512_STEP (SHA512_F0o, SHA512_F1o, h, a, b, c, d, e, f, g, w9_t, k_sha512[i +  9]); \
133     SHA512_STEP (SHA512_F0o, SHA512_F1o, g, h, a, b, c, d, e, f, wa_t, k_sha512[i + 10]); \
134     SHA512_STEP (SHA512_F0o, SHA512_F1o, f, g, h, a, b, c, d, e, wb_t, k_sha512[i + 11]); \
135     SHA512_STEP (SHA512_F0o, SHA512_F1o, e, f, g, h, a, b, c, d, wc_t, k_sha512[i + 12]); \
136     SHA512_STEP (SHA512_F0o, SHA512_F1o, d, e, f, g, h, a, b, c, wd_t, k_sha512[i + 13]); \
137     SHA512_STEP (SHA512_F0o, SHA512_F1o, c, d, e, f, g, h, a, b, we_t, k_sha512[i + 14]); \
138     SHA512_STEP (SHA512_F0o, SHA512_F1o, b, c, d, e, f, g, h, a, wf_t, k_sha512[i + 15]); \
139   }
140
141   ROUND_STEP (0);
142
143   //#pragma unroll // kernel fails if used
144   for (int i = 16; i < 80; i += 16)
145   {
146     ROUND_EXPAND (); ROUND_STEP (i);
147   }
148
149   digest[0] += a;
150   digest[1] += b;
151   digest[2] += c;
152   digest[3] += d;
153   digest[4] += e;
154   digest[5] += f;
155   digest[6] += g;
156   digest[7] += h;
157 }
158
159 static void hmac_sha512_pad (u32x w0[4], u32x w1[4], u32x w2[4], u32x w3[4], u64x ipad[8], u64x opad[8])
160 {
161   u64x w0_t[4];
162   u64x w1_t[4];
163   u64x w2_t[4];
164   u64x w3_t[4];
165
166   w0_t[0] = hl32_to_64 (w0[0], w0[1]) ^ 0x3636363636363636;
167   w0_t[1] = hl32_to_64 (w0[2], w0[3]) ^ 0x3636363636363636;
168   w0_t[2] = hl32_to_64 (w1[0], w1[1]) ^ 0x3636363636363636;
169   w0_t[3] = hl32_to_64 (w1[2], w1[3]) ^ 0x3636363636363636;
170   w1_t[0] = hl32_to_64 (w2[0], w2[1]) ^ 0x3636363636363636;
171   w1_t[1] = hl32_to_64 (w2[2], w2[3]) ^ 0x3636363636363636;
172   w1_t[2] = hl32_to_64 (w3[0], w3[1]) ^ 0x3636363636363636;
173   w1_t[3] = hl32_to_64 (w3[2], w3[3]) ^ 0x3636363636363636;
174   w2_t[0] =                                 0 ^ 0x3636363636363636;
175   w2_t[1] =                                 0 ^ 0x3636363636363636;
176   w2_t[2] =                                 0 ^ 0x3636363636363636;
177   w2_t[3] =                                 0 ^ 0x3636363636363636;
178   w3_t[0] =                                 0 ^ 0x3636363636363636;
179   w3_t[1] =                                 0 ^ 0x3636363636363636;
180   w3_t[2] =                                 0 ^ 0x3636363636363636;
181   w3_t[3] =                                 0 ^ 0x3636363636363636;
182
183   ipad[0] = SHA512M_A;
184   ipad[1] = SHA512M_B;
185   ipad[2] = SHA512M_C;
186   ipad[3] = SHA512M_D;
187   ipad[4] = SHA512M_E;
188   ipad[5] = SHA512M_F;
189   ipad[6] = SHA512M_G;
190   ipad[7] = SHA512M_H;
191
192   sha512_transform (w0_t, w1_t, w2_t, w3_t, ipad);
193
194   w0_t[0] = hl32_to_64 (w0[0], w0[1]) ^ 0x5c5c5c5c5c5c5c5c;
195   w0_t[1] = hl32_to_64 (w0[2], w0[3]) ^ 0x5c5c5c5c5c5c5c5c;
196   w0_t[2] = hl32_to_64 (w1[0], w1[1]) ^ 0x5c5c5c5c5c5c5c5c;
197   w0_t[3] = hl32_to_64 (w1[2], w1[3]) ^ 0x5c5c5c5c5c5c5c5c;
198   w1_t[0] = hl32_to_64 (w2[0], w2[1]) ^ 0x5c5c5c5c5c5c5c5c;
199   w1_t[1] = hl32_to_64 (w2[2], w2[3]) ^ 0x5c5c5c5c5c5c5c5c;
200   w1_t[2] = hl32_to_64 (w3[0], w3[1]) ^ 0x5c5c5c5c5c5c5c5c;
201   w1_t[3] = hl32_to_64 (w3[2], w3[3]) ^ 0x5c5c5c5c5c5c5c5c;
202   w2_t[0] =                                 0 ^ 0x5c5c5c5c5c5c5c5c;
203   w2_t[1] =                                 0 ^ 0x5c5c5c5c5c5c5c5c;
204   w2_t[2] =                                 0 ^ 0x5c5c5c5c5c5c5c5c;
205   w2_t[3] =                                 0 ^ 0x5c5c5c5c5c5c5c5c;
206   w3_t[0] =                                 0 ^ 0x5c5c5c5c5c5c5c5c;
207   w3_t[1] =                                 0 ^ 0x5c5c5c5c5c5c5c5c;
208   w3_t[2] =                                 0 ^ 0x5c5c5c5c5c5c5c5c;
209   w3_t[3] =                                 0 ^ 0x5c5c5c5c5c5c5c5c;
210
211   opad[0] = SHA512M_A;
212   opad[1] = SHA512M_B;
213   opad[2] = SHA512M_C;
214   opad[3] = SHA512M_D;
215   opad[4] = SHA512M_E;
216   opad[5] = SHA512M_F;
217   opad[6] = SHA512M_G;
218   opad[7] = SHA512M_H;
219
220   sha512_transform (w0_t, w1_t, w2_t, w3_t, opad);
221 }
222
223 static void hmac_sha512_run (u32x w0[4], u32x w1[4], u32x w2[4], u32x w3[4], u64x ipad[8], u64x opad[8], u64x digest[8])
224 {
225   u64x w0_t[4];
226   u64x w1_t[4];
227   u64x w2_t[4];
228   u64x w3_t[4];
229
230   w0_t[0] = hl32_to_64 (w0[0], w0[1]);
231   w0_t[1] = hl32_to_64 (w0[2], w0[3]);
232   w0_t[2] = hl32_to_64 (w1[0], w1[1]);
233   w0_t[3] = hl32_to_64 (w1[2], w1[3]);
234   w1_t[0] = hl32_to_64 (w2[0], w2[1]);
235   w1_t[1] = hl32_to_64 (w2[2], w2[3]);
236   w1_t[2] = hl32_to_64 (w3[0], w3[1]);
237   w1_t[3] = 0;
238   w2_t[0] = 0;
239   w2_t[1] = 0;
240   w2_t[2] = 0;
241   w2_t[3] = 0;
242   w3_t[0] = 0;
243   w3_t[1] = 0;
244   w3_t[2] = 0;
245   w3_t[3] = hl32_to_64 (w3[2], w3[3]);
246
247   digest[0] = ipad[0];
248   digest[1] = ipad[1];
249   digest[2] = ipad[2];
250   digest[3] = ipad[3];
251   digest[4] = ipad[4];
252   digest[5] = ipad[5];
253   digest[6] = ipad[6];
254   digest[7] = ipad[7];
255
256   sha512_transform (w0_t, w1_t, w2_t, w3_t, digest);
257
258   w0_t[0] = digest[0];
259   w0_t[1] = digest[1];
260   w0_t[2] = digest[2];
261   w0_t[3] = digest[3];
262   w1_t[0] = digest[4];
263   w1_t[1] = digest[5];
264   w1_t[2] = digest[6];
265   w1_t[3] = digest[7];
266   w2_t[0] = 0x8000000000000000;
267   w2_t[1] = 0;
268   w2_t[2] = 0;
269   w2_t[3] = 0;
270   w3_t[0] = 0;
271   w3_t[1] = 0;
272   w3_t[2] = 0;
273   w3_t[3] = (128 + 64) * 8;
274
275   digest[0] = opad[0];
276   digest[1] = opad[1];
277   digest[2] = opad[2];
278   digest[3] = opad[3];
279   digest[4] = opad[4];
280   digest[5] = opad[5];
281   digest[6] = opad[6];
282   digest[7] = opad[7];
283
284   sha512_transform (w0_t, w1_t, w2_t, w3_t, digest);
285 }
286
287 __kernel void __attribute__((reqd_work_group_size (64, 1, 1))) m01760_m04 (__global pw_t *pws, __global gpu_rule_t *  rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 rules_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
288 {
289   /**
290    * modifier
291    */
292
293   const u32 lid = get_local_id (0);
294
295   /**
296    * base
297    */
298
299   const u32 gid = get_global_id (0);
300
301   if (gid >= gid_max) return;
302
303   u32x pw_buf0[4];
304
305   pw_buf0[0] = pws[gid].i[ 0];
306   pw_buf0[1] = pws[gid].i[ 1];
307   pw_buf0[2] = pws[gid].i[ 2];
308   pw_buf0[3] = pws[gid].i[ 3];
309
310   u32x pw_buf1[4];
311
312   pw_buf1[0] = pws[gid].i[ 4];
313   pw_buf1[1] = pws[gid].i[ 5];
314   pw_buf1[2] = pws[gid].i[ 6];
315   pw_buf1[3] = pws[gid].i[ 7];
316
317   const u32 pw_len = pws[gid].pw_len;
318
319   /**
320    * salt
321    */
322
323   u32 salt_buf0[4];
324
325   salt_buf0[0] = salt_bufs[salt_pos].salt_buf[ 0];
326   salt_buf0[1] = salt_bufs[salt_pos].salt_buf[ 1];
327   salt_buf0[2] = salt_bufs[salt_pos].salt_buf[ 2];
328   salt_buf0[3] = salt_bufs[salt_pos].salt_buf[ 3];
329
330   u32 salt_buf1[4];
331
332   salt_buf1[0] = salt_bufs[salt_pos].salt_buf[ 4];
333   salt_buf1[1] = salt_bufs[salt_pos].salt_buf[ 5];
334   salt_buf1[2] = salt_bufs[salt_pos].salt_buf[ 6];
335   salt_buf1[3] = salt_bufs[salt_pos].salt_buf[ 7];
336
337   /**
338    * pads
339    */
340
341   u32x w0_t[4];
342
343   w0_t[0] = swap_workaround (salt_buf0[0]);
344   w0_t[1] = swap_workaround (salt_buf0[1]);
345   w0_t[2] = swap_workaround (salt_buf0[2]);
346   w0_t[3] = swap_workaround (salt_buf0[3]);
347
348   u32x w1_t[4];
349
350   w1_t[0] = swap_workaround (salt_buf1[0]);
351   w1_t[1] = swap_workaround (salt_buf1[1]);
352   w1_t[2] = swap_workaround (salt_buf1[2]);
353   w1_t[3] = swap_workaround (salt_buf1[3]);
354
355   u32x w2_t[4];
356
357   w2_t[0] = 0;
358   w2_t[1] = 0;
359   w2_t[2] = 0;
360   w2_t[3] = 0;
361
362   u32x w3_t[4];
363
364   w3_t[0] = 0;
365   w3_t[1] = 0;
366   w3_t[2] = 0;
367   w3_t[3] = 0;
368
369   u64x ipad[8];
370   u64x opad[8];
371
372   hmac_sha512_pad (w0_t, w1_t, w2_t, w3_t, ipad, opad);
373
374   /**
375    * loop
376    */
377
378   for (u32 il_pos = 0; il_pos < rules_cnt; il_pos++)
379   {
380     u32x w0[4];
381
382     w0[0] = pw_buf0[0];
383     w0[1] = pw_buf0[1];
384     w0[2] = pw_buf0[2];
385     w0[3] = pw_buf0[3];
386
387     u32x w1[4];
388
389     w1[0] = pw_buf1[0];
390     w1[1] = pw_buf1[1];
391     w1[2] = pw_buf1[2];
392     w1[3] = pw_buf1[3];
393
394     u32x w2[4];
395
396     w2[0] = 0;
397     w2[1] = 0;
398     w2[2] = 0;
399     w2[3] = 0;
400
401     u32x w3[4];
402
403     w3[0] = 0;
404     w3[1] = 0;
405     w3[2] = 0;
406     w3[3] = 0;
407
408     const u32 out_len = apply_rules (rules_buf[il_pos].cmds, w0, w1, pw_len);
409
410     append_0x80_2 (w0, w1, out_len);
411
412     w0_t[0] = swap_workaround (w0[0]);
413     w0_t[1] = swap_workaround (w0[1]);
414     w0_t[2] = swap_workaround (w0[2]);
415     w0_t[3] = swap_workaround (w0[3]);
416     w1_t[0] = swap_workaround (w1[0]);
417     w1_t[1] = swap_workaround (w1[1]);
418     w1_t[2] = swap_workaround (w1[2]);
419     w1_t[3] = swap_workaround (w1[3]);
420     w2_t[0] = 0;
421     w2_t[1] = 0;
422     w2_t[2] = 0;
423     w2_t[3] = 0;
424     w3_t[0] = 0;
425     w3_t[1] = 0;
426     w3_t[2] = 0;
427     w3_t[3] = (128 + out_len) * 8;
428
429     u64x digest[8];
430
431     hmac_sha512_run (w0_t, w1_t, w2_t, w3_t, ipad, opad, digest);
432
433
434     const u32x r0 = l32_from_64 (digest[7]);
435     const u32x r1 = h32_from_64 (digest[7]);
436     const u32x r2 = l32_from_64 (digest[3]);
437     const u32x r3 = h32_from_64 (digest[3]);
438
439     #include VECT_COMPARE_M
440   }
441 }
442
443 __kernel void __attribute__((reqd_work_group_size (64, 1, 1))) m01760_m08 (__global pw_t *pws, __global gpu_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 combs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
444 {
445 }
446
447 __kernel void __attribute__((reqd_work_group_size (64, 1, 1))) m01760_m16 (__global pw_t *pws, __global gpu_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 combs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
448 {
449 }
450
451 __kernel void __attribute__((reqd_work_group_size (64, 1, 1))) m01760_s04 (__global pw_t *pws, __global gpu_rule_t *  rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 rules_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
452 {
453   /**
454    * modifier
455    */
456
457   const u32 lid = get_local_id (0);
458
459   /**
460    * base
461    */
462
463   const u32 gid = get_global_id (0);
464
465   if (gid >= gid_max) return;
466
467   u32x pw_buf0[4];
468
469   pw_buf0[0] = pws[gid].i[ 0];
470   pw_buf0[1] = pws[gid].i[ 1];
471   pw_buf0[2] = pws[gid].i[ 2];
472   pw_buf0[3] = pws[gid].i[ 3];
473
474   u32x pw_buf1[4];
475
476   pw_buf1[0] = pws[gid].i[ 4];
477   pw_buf1[1] = pws[gid].i[ 5];
478   pw_buf1[2] = pws[gid].i[ 6];
479   pw_buf1[3] = pws[gid].i[ 7];
480
481   const u32 pw_len = pws[gid].pw_len;
482
483   /**
484    * salt
485    */
486
487   u32 salt_buf0[4];
488
489   salt_buf0[0] = salt_bufs[salt_pos].salt_buf[ 0];
490   salt_buf0[1] = salt_bufs[salt_pos].salt_buf[ 1];
491   salt_buf0[2] = salt_bufs[salt_pos].salt_buf[ 2];
492   salt_buf0[3] = salt_bufs[salt_pos].salt_buf[ 3];
493
494   u32 salt_buf1[4];
495
496   salt_buf1[0] = salt_bufs[salt_pos].salt_buf[ 4];
497   salt_buf1[1] = salt_bufs[salt_pos].salt_buf[ 5];
498   salt_buf1[2] = salt_bufs[salt_pos].salt_buf[ 6];
499   salt_buf1[3] = salt_bufs[salt_pos].salt_buf[ 7];
500
501   /**
502    * pads
503    */
504
505   u32x w0_t[4];
506
507   w0_t[0] = swap_workaround (salt_buf0[0]);
508   w0_t[1] = swap_workaround (salt_buf0[1]);
509   w0_t[2] = swap_workaround (salt_buf0[2]);
510   w0_t[3] = swap_workaround (salt_buf0[3]);
511
512   u32x w1_t[4];
513
514   w1_t[0] = swap_workaround (salt_buf1[0]);
515   w1_t[1] = swap_workaround (salt_buf1[1]);
516   w1_t[2] = swap_workaround (salt_buf1[2]);
517   w1_t[3] = swap_workaround (salt_buf1[3]);
518
519   u32x w2_t[4];
520
521   w2_t[0] = 0;
522   w2_t[1] = 0;
523   w2_t[2] = 0;
524   w2_t[3] = 0;
525
526   u32x w3_t[4];
527
528   w3_t[0] = 0;
529   w3_t[1] = 0;
530   w3_t[2] = 0;
531   w3_t[3] = 0;
532
533   u64x ipad[8];
534   u64x opad[8];
535
536   hmac_sha512_pad (w0_t, w1_t, w2_t, w3_t, ipad, opad);
537
538   /**
539    * digest
540    */
541
542   const u32 search[4] =
543   {
544     digests_buf[digests_offset].digest_buf[DGST_R0],
545     digests_buf[digests_offset].digest_buf[DGST_R1],
546     digests_buf[digests_offset].digest_buf[DGST_R2],
547     digests_buf[digests_offset].digest_buf[DGST_R3]
548   };
549
550   /**
551    * loop
552    */
553
554   for (u32 il_pos = 0; il_pos < rules_cnt; il_pos++)
555   {
556     u32x w0[4];
557
558     w0[0] = pw_buf0[0];
559     w0[1] = pw_buf0[1];
560     w0[2] = pw_buf0[2];
561     w0[3] = pw_buf0[3];
562
563     u32x w1[4];
564
565     w1[0] = pw_buf1[0];
566     w1[1] = pw_buf1[1];
567     w1[2] = pw_buf1[2];
568     w1[3] = pw_buf1[3];
569
570     u32x w2[4];
571
572     w2[0] = 0;
573     w2[1] = 0;
574     w2[2] = 0;
575     w2[3] = 0;
576
577     u32x w3[4];
578
579     w3[0] = 0;
580     w3[1] = 0;
581     w3[2] = 0;
582     w3[3] = 0;
583
584     const u32 out_len = apply_rules (rules_buf[il_pos].cmds, w0, w1, pw_len);
585
586     append_0x80_2 (w0, w1, out_len);
587
588     w0_t[0] = swap_workaround (w0[0]);
589     w0_t[1] = swap_workaround (w0[1]);
590     w0_t[2] = swap_workaround (w0[2]);
591     w0_t[3] = swap_workaround (w0[3]);
592     w1_t[0] = swap_workaround (w1[0]);
593     w1_t[1] = swap_workaround (w1[1]);
594     w1_t[2] = swap_workaround (w1[2]);
595     w1_t[3] = swap_workaround (w1[3]);
596     w2_t[0] = 0;
597     w2_t[1] = 0;
598     w2_t[2] = 0;
599     w2_t[3] = 0;
600     w3_t[0] = 0;
601     w3_t[1] = 0;
602     w3_t[2] = 0;
603     w3_t[3] = (128 + out_len) * 8;
604
605     u64x digest[8];
606
607     hmac_sha512_run (w0_t, w1_t, w2_t, w3_t, ipad, opad, digest);
608
609
610     const u32x r0 = l32_from_64 (digest[7]);
611     const u32x r1 = h32_from_64 (digest[7]);
612     const u32x r2 = l32_from_64 (digest[3]);
613     const u32x r3 = h32_from_64 (digest[3]);
614
615     #include VECT_COMPARE_S
616   }
617 }
618
619 __kernel void __attribute__((reqd_work_group_size (64, 1, 1))) m01760_s08 (__global pw_t *pws, __global gpu_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 combs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
620 {
621 }
622
623 __kernel void __attribute__((reqd_work_group_size (64, 1, 1))) m01760_s16 (__global pw_t *pws, __global gpu_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 combs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
624 {
625 }