Fix append_* function calls
[hashcat.git] / OpenCL / m04400_a0.cl
1 /**
2  * Author......: Jens Steube <jens.steube@gmail.com>
3  * License.....: MIT
4  */
5
6 #define _MD5_SHA1_
7
8 #include "include/constants.h"
9 #include "include/kernel_vendor.h"
10
11 #define DGST_R0 0
12 #define DGST_R1 3
13 #define DGST_R2 2
14 #define DGST_R3 1
15
16 #include "include/kernel_functions.c"
17 #include "types_ocl.c"
18 #include "common.c"
19 #include "include/rp_gpu.h"
20 #include "rp.c"
21
22 #define COMPARE_S "check_single_comp4.c"
23 #define COMPARE_M "check_multi_comp4.c"
24
25 #ifdef VECT_SIZE1
26 #define uint_to_hex_lower8(i) l_bin2asc[(i)]
27 #endif
28
29 #ifdef VECT_SIZE2
30 #define uint_to_hex_lower8(i) (u32x) (l_bin2asc[(i).s0], l_bin2asc[(i).s1])
31 #endif
32
33 #ifdef VECT_SIZE4
34 #define uint_to_hex_lower8(i) (u32x) (l_bin2asc[(i).s0], l_bin2asc[(i).s1], l_bin2asc[(i).s2], l_bin2asc[(i).s3])
35 #endif
36
37 __kernel void __attribute__((reqd_work_group_size (64, 1, 1))) m04400_m04 (__global pw_t *pws, __global gpu_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 rules_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
38 {
39   /**
40    * modifier
41    */
42
43   const u32 lid = get_local_id (0);
44
45   /**
46    * base
47    */
48
49   const u32 gid = get_global_id (0);
50
51   u32 pw_buf0[4];
52
53   pw_buf0[0] = pws[gid].i[ 0];
54   pw_buf0[1] = pws[gid].i[ 1];
55   pw_buf0[2] = pws[gid].i[ 2];
56   pw_buf0[3] = pws[gid].i[ 3];
57
58   u32 pw_buf1[4];
59
60   pw_buf1[0] = pws[gid].i[ 4];
61   pw_buf1[1] = pws[gid].i[ 5];
62   pw_buf1[2] = pws[gid].i[ 6];
63   pw_buf1[3] = pws[gid].i[ 7];
64
65   const u32 pw_len = pws[gid].pw_len;
66
67   /**
68    * bin2asc table
69    */
70
71   __local u32 l_bin2asc[256];
72
73   const u32 lid4 = lid * 4;
74
75   const u32 lid40 = lid4 + 0;
76   const u32 lid41 = lid4 + 1;
77   const u32 lid42 = lid4 + 2;
78   const u32 lid43 = lid4 + 3;
79
80   const u32 v400 = (lid40 >> 0) & 15;
81   const u32 v401 = (lid40 >> 4) & 15;
82   const u32 v410 = (lid41 >> 0) & 15;
83   const u32 v411 = (lid41 >> 4) & 15;
84   const u32 v420 = (lid42 >> 0) & 15;
85   const u32 v421 = (lid42 >> 4) & 15;
86   const u32 v430 = (lid43 >> 0) & 15;
87   const u32 v431 = (lid43 >> 4) & 15;
88
89   l_bin2asc[lid40] = ((v400 < 10) ? '0' + v400 : 'a' - 10 + v400) << 8
90                    | ((v401 < 10) ? '0' + v401 : 'a' - 10 + v401) << 0;
91   l_bin2asc[lid41] = ((v410 < 10) ? '0' + v410 : 'a' - 10 + v410) << 8
92                    | ((v411 < 10) ? '0' + v411 : 'a' - 10 + v411) << 0;
93   l_bin2asc[lid42] = ((v420 < 10) ? '0' + v420 : 'a' - 10 + v420) << 8
94                    | ((v421 < 10) ? '0' + v421 : 'a' - 10 + v421) << 0;
95   l_bin2asc[lid43] = ((v430 < 10) ? '0' + v430 : 'a' - 10 + v430) << 8
96                    | ((v431 < 10) ? '0' + v431 : 'a' - 10 + v431) << 0;
97
98   barrier (CLK_LOCAL_MEM_FENCE);
99
100   if (gid >= gid_max) return;
101
102   /**
103    * loop
104    */
105
106   for (u32 il_pos = 0; il_pos < rules_cnt; il_pos++)
107   {
108     u32 w0[4];
109
110     w0[0] = pw_buf0[0];
111     w0[1] = pw_buf0[1];
112     w0[2] = pw_buf0[2];
113     w0[3] = pw_buf0[3];
114
115     u32 w1[4];
116
117     w1[0] = pw_buf1[0];
118     w1[1] = pw_buf1[1];
119     w1[2] = pw_buf1[2];
120     w1[3] = pw_buf1[3];
121
122     u32 w2[4];
123
124     w2[0] = 0;
125     w2[1] = 0;
126     w2[2] = 0;
127     w2[3] = 0;
128
129     u32 w3[4];
130
131     w3[0] = 0;
132     w3[1] = 0;
133     w3[2] = 0;
134     w3[3] = 0;
135
136     const u32 out_len = apply_rules (rules_buf[il_pos].cmds, w0, w1, pw_len);
137
138     append_0x80_2x4 (w0, w1, out_len);
139
140     /**
141      * sha1
142      */
143
144     u32 w0_t = swap_workaround (w0[0]);
145     u32 w1_t = swap_workaround (w0[1]);
146     u32 w2_t = swap_workaround (w0[2]);
147     u32 w3_t = swap_workaround (w0[3]);
148     u32 w4_t = swap_workaround (w1[0]);
149     u32 w5_t = swap_workaround (w1[1]);
150     u32 w6_t = swap_workaround (w1[2]);
151     u32 w7_t = swap_workaround (w1[3]);
152     u32 w8_t = swap_workaround (w2[0]);
153     u32 w9_t = swap_workaround (w2[1]);
154     u32 wa_t = swap_workaround (w2[2]);
155     u32 wb_t = swap_workaround (w2[3]);
156     u32 wc_t = swap_workaround (w3[0]);
157     u32 wd_t = swap_workaround (w3[1]);
158     u32 we_t = 0;
159     u32 wf_t = out_len * 8;
160
161     u32 a = SHA1M_A;
162     u32 b = SHA1M_B;
163     u32 c = SHA1M_C;
164     u32 d = SHA1M_D;
165     u32 e = SHA1M_E;
166
167     #undef K
168     #define K SHA1C00
169
170     SHA1_STEP (SHA1_F0o, a, b, c, d, e, w0_t);
171     SHA1_STEP (SHA1_F0o, e, a, b, c, d, w1_t);
172     SHA1_STEP (SHA1_F0o, d, e, a, b, c, w2_t);
173     SHA1_STEP (SHA1_F0o, c, d, e, a, b, w3_t);
174     SHA1_STEP (SHA1_F0o, b, c, d, e, a, w4_t);
175     SHA1_STEP (SHA1_F0o, a, b, c, d, e, w5_t);
176     SHA1_STEP (SHA1_F0o, e, a, b, c, d, w6_t);
177     SHA1_STEP (SHA1_F0o, d, e, a, b, c, w7_t);
178     SHA1_STEP (SHA1_F0o, c, d, e, a, b, w8_t);
179     SHA1_STEP (SHA1_F0o, b, c, d, e, a, w9_t);
180     SHA1_STEP (SHA1_F0o, a, b, c, d, e, wa_t);
181     SHA1_STEP (SHA1_F0o, e, a, b, c, d, wb_t);
182     SHA1_STEP (SHA1_F0o, d, e, a, b, c, wc_t);
183     SHA1_STEP (SHA1_F0o, c, d, e, a, b, wd_t);
184     SHA1_STEP (SHA1_F0o, b, c, d, e, a, we_t);
185     SHA1_STEP (SHA1_F0o, a, b, c, d, e, wf_t);
186     w0_t = rotl32 ((wd_t ^ w8_t ^ w2_t ^ w0_t), 1u); SHA1_STEP (SHA1_F0o, e, a, b, c, d, w0_t);
187     w1_t = rotl32 ((we_t ^ w9_t ^ w3_t ^ w1_t), 1u); SHA1_STEP (SHA1_F0o, d, e, a, b, c, w1_t);
188     w2_t = rotl32 ((wf_t ^ wa_t ^ w4_t ^ w2_t), 1u); SHA1_STEP (SHA1_F0o, c, d, e, a, b, w2_t);
189     w3_t = rotl32 ((w0_t ^ wb_t ^ w5_t ^ w3_t), 1u); SHA1_STEP (SHA1_F0o, b, c, d, e, a, w3_t);
190
191     #undef K
192     #define K SHA1C01
193
194     w4_t = rotl32 ((w1_t ^ wc_t ^ w6_t ^ w4_t), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w4_t);
195     w5_t = rotl32 ((w2_t ^ wd_t ^ w7_t ^ w5_t), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w5_t);
196     w6_t = rotl32 ((w3_t ^ we_t ^ w8_t ^ w6_t), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w6_t);
197     w7_t = rotl32 ((w4_t ^ wf_t ^ w9_t ^ w7_t), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w7_t);
198     w8_t = rotl32 ((w5_t ^ w0_t ^ wa_t ^ w8_t), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w8_t);
199     w9_t = rotl32 ((w6_t ^ w1_t ^ wb_t ^ w9_t), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w9_t);
200     wa_t = rotl32 ((w7_t ^ w2_t ^ wc_t ^ wa_t), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, wa_t);
201     wb_t = rotl32 ((w8_t ^ w3_t ^ wd_t ^ wb_t), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, wb_t);
202     wc_t = rotl32 ((w9_t ^ w4_t ^ we_t ^ wc_t), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, wc_t);
203     wd_t = rotl32 ((wa_t ^ w5_t ^ wf_t ^ wd_t), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, wd_t);
204     we_t = rotl32 ((wb_t ^ w6_t ^ w0_t ^ we_t), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, we_t);
205     wf_t = rotl32 ((wc_t ^ w7_t ^ w1_t ^ wf_t), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, wf_t);
206     w0_t = rotl32 ((wd_t ^ w8_t ^ w2_t ^ w0_t), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w0_t);
207     w1_t = rotl32 ((we_t ^ w9_t ^ w3_t ^ w1_t), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w1_t);
208     w2_t = rotl32 ((wf_t ^ wa_t ^ w4_t ^ w2_t), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w2_t);
209     w3_t = rotl32 ((w0_t ^ wb_t ^ w5_t ^ w3_t), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w3_t);
210     w4_t = rotl32 ((w1_t ^ wc_t ^ w6_t ^ w4_t), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w4_t);
211     w5_t = rotl32 ((w2_t ^ wd_t ^ w7_t ^ w5_t), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w5_t);
212     w6_t = rotl32 ((w3_t ^ we_t ^ w8_t ^ w6_t), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w6_t);
213     w7_t = rotl32 ((w4_t ^ wf_t ^ w9_t ^ w7_t), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w7_t);
214
215     #undef K
216     #define K SHA1C02
217
218     w8_t = rotl32 ((w5_t ^ w0_t ^ wa_t ^ w8_t), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, w8_t);
219     w9_t = rotl32 ((w6_t ^ w1_t ^ wb_t ^ w9_t), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, w9_t);
220     wa_t = rotl32 ((w7_t ^ w2_t ^ wc_t ^ wa_t), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, wa_t);
221     wb_t = rotl32 ((w8_t ^ w3_t ^ wd_t ^ wb_t), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, wb_t);
222     wc_t = rotl32 ((w9_t ^ w4_t ^ we_t ^ wc_t), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, wc_t);
223     wd_t = rotl32 ((wa_t ^ w5_t ^ wf_t ^ wd_t), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, wd_t);
224     we_t = rotl32 ((wb_t ^ w6_t ^ w0_t ^ we_t), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, we_t);
225     wf_t = rotl32 ((wc_t ^ w7_t ^ w1_t ^ wf_t), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, wf_t);
226     w0_t = rotl32 ((wd_t ^ w8_t ^ w2_t ^ w0_t), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, w0_t);
227     w1_t = rotl32 ((we_t ^ w9_t ^ w3_t ^ w1_t), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, w1_t);
228     w2_t = rotl32 ((wf_t ^ wa_t ^ w4_t ^ w2_t), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, w2_t);
229     w3_t = rotl32 ((w0_t ^ wb_t ^ w5_t ^ w3_t), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, w3_t);
230     w4_t = rotl32 ((w1_t ^ wc_t ^ w6_t ^ w4_t), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, w4_t);
231     w5_t = rotl32 ((w2_t ^ wd_t ^ w7_t ^ w5_t), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, w5_t);
232     w6_t = rotl32 ((w3_t ^ we_t ^ w8_t ^ w6_t), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, w6_t);
233     w7_t = rotl32 ((w4_t ^ wf_t ^ w9_t ^ w7_t), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, w7_t);
234     w8_t = rotl32 ((w5_t ^ w0_t ^ wa_t ^ w8_t), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, w8_t);
235     w9_t = rotl32 ((w6_t ^ w1_t ^ wb_t ^ w9_t), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, w9_t);
236     wa_t = rotl32 ((w7_t ^ w2_t ^ wc_t ^ wa_t), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, wa_t);
237     wb_t = rotl32 ((w8_t ^ w3_t ^ wd_t ^ wb_t), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, wb_t);
238
239     #undef K
240     #define K SHA1C03
241
242     wc_t = rotl32 ((w9_t ^ w4_t ^ we_t ^ wc_t), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, wc_t);
243     wd_t = rotl32 ((wa_t ^ w5_t ^ wf_t ^ wd_t), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, wd_t);
244     we_t = rotl32 ((wb_t ^ w6_t ^ w0_t ^ we_t), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, we_t);
245     wf_t = rotl32 ((wc_t ^ w7_t ^ w1_t ^ wf_t), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, wf_t);
246     w0_t = rotl32 ((wd_t ^ w8_t ^ w2_t ^ w0_t), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w0_t);
247     w1_t = rotl32 ((we_t ^ w9_t ^ w3_t ^ w1_t), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w1_t);
248     w2_t = rotl32 ((wf_t ^ wa_t ^ w4_t ^ w2_t), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w2_t);
249     w3_t = rotl32 ((w0_t ^ wb_t ^ w5_t ^ w3_t), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w3_t);
250     w4_t = rotl32 ((w1_t ^ wc_t ^ w6_t ^ w4_t), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w4_t);
251     w5_t = rotl32 ((w2_t ^ wd_t ^ w7_t ^ w5_t), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w5_t);
252     w6_t = rotl32 ((w3_t ^ we_t ^ w8_t ^ w6_t), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w6_t);
253     w7_t = rotl32 ((w4_t ^ wf_t ^ w9_t ^ w7_t), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w7_t);
254     w8_t = rotl32 ((w5_t ^ w0_t ^ wa_t ^ w8_t), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w8_t);
255     w9_t = rotl32 ((w6_t ^ w1_t ^ wb_t ^ w9_t), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w9_t);
256     wa_t = rotl32 ((w7_t ^ w2_t ^ wc_t ^ wa_t), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, wa_t);
257     wb_t = rotl32 ((w8_t ^ w3_t ^ wd_t ^ wb_t), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, wb_t);
258     wc_t = rotl32 ((w9_t ^ w4_t ^ we_t ^ wc_t), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, wc_t);
259     wd_t = rotl32 ((wa_t ^ w5_t ^ wf_t ^ wd_t), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, wd_t);
260     we_t = rotl32 ((wb_t ^ w6_t ^ w0_t ^ we_t), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, we_t);
261     wf_t = rotl32 ((wc_t ^ w7_t ^ w1_t ^ wf_t), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, wf_t);
262
263     a += SHA1M_A;
264     b += SHA1M_B;
265     c += SHA1M_C;
266     d += SHA1M_D;
267     e += SHA1M_E;
268
269     /**
270      * md5
271      */
272
273     w0_t = uint_to_hex_lower8 ((a >> 24) & 255) <<  0
274          | uint_to_hex_lower8 ((a >> 16) & 255) << 16;
275     w1_t = uint_to_hex_lower8 ((a >>  8) & 255) <<  0
276          | uint_to_hex_lower8 ((a >>  0) & 255) << 16;
277     w2_t = uint_to_hex_lower8 ((b >> 24) & 255) <<  0
278          | uint_to_hex_lower8 ((b >> 16) & 255) << 16;
279     w3_t = uint_to_hex_lower8 ((b >>  8) & 255) <<  0
280          | uint_to_hex_lower8 ((b >>  0) & 255) << 16;
281     w4_t = uint_to_hex_lower8 ((c >> 24) & 255) <<  0
282          | uint_to_hex_lower8 ((c >> 16) & 255) << 16;
283     w5_t = uint_to_hex_lower8 ((c >>  8) & 255) <<  0
284          | uint_to_hex_lower8 ((c >>  0) & 255) << 16;
285     w6_t = uint_to_hex_lower8 ((d >> 24) & 255) <<  0
286          | uint_to_hex_lower8 ((d >> 16) & 255) << 16;
287     w7_t = uint_to_hex_lower8 ((d >>  8) & 255) <<  0
288          | uint_to_hex_lower8 ((d >>  0) & 255) << 16;
289     w8_t = uint_to_hex_lower8 ((e >> 24) & 255) <<  0
290          | uint_to_hex_lower8 ((e >> 16) & 255) << 16;
291     w9_t = uint_to_hex_lower8 ((e >>  8) & 255) <<  0
292          | uint_to_hex_lower8 ((e >>  0) & 255) << 16;
293
294     wa_t = 0x80;
295     wb_t = 0;
296     wc_t = 0;
297     wd_t = 0;
298     we_t = 40 * 8;
299     wf_t = 0;
300
301     a = MD5M_A;
302     b = MD5M_B;
303     c = MD5M_C;
304     d = MD5M_D;
305
306     MD5_STEP (MD5_Fo, a, b, c, d, w0_t, MD5C00, MD5S00);
307     MD5_STEP (MD5_Fo, d, a, b, c, w1_t, MD5C01, MD5S01);
308     MD5_STEP (MD5_Fo, c, d, a, b, w2_t, MD5C02, MD5S02);
309     MD5_STEP (MD5_Fo, b, c, d, a, w3_t, MD5C03, MD5S03);
310     MD5_STEP (MD5_Fo, a, b, c, d, w4_t, MD5C04, MD5S00);
311     MD5_STEP (MD5_Fo, d, a, b, c, w5_t, MD5C05, MD5S01);
312     MD5_STEP (MD5_Fo, c, d, a, b, w6_t, MD5C06, MD5S02);
313     MD5_STEP (MD5_Fo, b, c, d, a, w7_t, MD5C07, MD5S03);
314     MD5_STEP (MD5_Fo, a, b, c, d, w8_t, MD5C08, MD5S00);
315     MD5_STEP (MD5_Fo, d, a, b, c, w9_t, MD5C09, MD5S01);
316     MD5_STEP (MD5_Fo, c, d, a, b, wa_t, MD5C0a, MD5S02);
317     MD5_STEP (MD5_Fo, b, c, d, a, wb_t, MD5C0b, MD5S03);
318     MD5_STEP (MD5_Fo, a, b, c, d, wc_t, MD5C0c, MD5S00);
319     MD5_STEP (MD5_Fo, d, a, b, c, wd_t, MD5C0d, MD5S01);
320     MD5_STEP (MD5_Fo, c, d, a, b, we_t, MD5C0e, MD5S02);
321     MD5_STEP (MD5_Fo, b, c, d, a, wf_t, MD5C0f, MD5S03);
322
323     MD5_STEP (MD5_Go, a, b, c, d, w1_t, MD5C10, MD5S10);
324     MD5_STEP (MD5_Go, d, a, b, c, w6_t, MD5C11, MD5S11);
325     MD5_STEP (MD5_Go, c, d, a, b, wb_t, MD5C12, MD5S12);
326     MD5_STEP (MD5_Go, b, c, d, a, w0_t, MD5C13, MD5S13);
327     MD5_STEP (MD5_Go, a, b, c, d, w5_t, MD5C14, MD5S10);
328     MD5_STEP (MD5_Go, d, a, b, c, wa_t, MD5C15, MD5S11);
329     MD5_STEP (MD5_Go, c, d, a, b, wf_t, MD5C16, MD5S12);
330     MD5_STEP (MD5_Go, b, c, d, a, w4_t, MD5C17, MD5S13);
331     MD5_STEP (MD5_Go, a, b, c, d, w9_t, MD5C18, MD5S10);
332     MD5_STEP (MD5_Go, d, a, b, c, we_t, MD5C19, MD5S11);
333     MD5_STEP (MD5_Go, c, d, a, b, w3_t, MD5C1a, MD5S12);
334     MD5_STEP (MD5_Go, b, c, d, a, w8_t, MD5C1b, MD5S13);
335     MD5_STEP (MD5_Go, a, b, c, d, wd_t, MD5C1c, MD5S10);
336     MD5_STEP (MD5_Go, d, a, b, c, w2_t, MD5C1d, MD5S11);
337     MD5_STEP (MD5_Go, c, d, a, b, w7_t, MD5C1e, MD5S12);
338     MD5_STEP (MD5_Go, b, c, d, a, wc_t, MD5C1f, MD5S13);
339
340     MD5_STEP (MD5_H , a, b, c, d, w5_t, MD5C20, MD5S20);
341     MD5_STEP (MD5_H , d, a, b, c, w8_t, MD5C21, MD5S21);
342     MD5_STEP (MD5_H , c, d, a, b, wb_t, MD5C22, MD5S22);
343     MD5_STEP (MD5_H , b, c, d, a, we_t, MD5C23, MD5S23);
344     MD5_STEP (MD5_H , a, b, c, d, w1_t, MD5C24, MD5S20);
345     MD5_STEP (MD5_H , d, a, b, c, w4_t, MD5C25, MD5S21);
346     MD5_STEP (MD5_H , c, d, a, b, w7_t, MD5C26, MD5S22);
347     MD5_STEP (MD5_H , b, c, d, a, wa_t, MD5C27, MD5S23);
348     MD5_STEP (MD5_H , a, b, c, d, wd_t, MD5C28, MD5S20);
349     MD5_STEP (MD5_H , d, a, b, c, w0_t, MD5C29, MD5S21);
350     MD5_STEP (MD5_H , c, d, a, b, w3_t, MD5C2a, MD5S22);
351     MD5_STEP (MD5_H , b, c, d, a, w6_t, MD5C2b, MD5S23);
352     MD5_STEP (MD5_H , a, b, c, d, w9_t, MD5C2c, MD5S20);
353     MD5_STEP (MD5_H , d, a, b, c, wc_t, MD5C2d, MD5S21);
354     MD5_STEP (MD5_H , c, d, a, b, wf_t, MD5C2e, MD5S22);
355     MD5_STEP (MD5_H , b, c, d, a, w2_t, MD5C2f, MD5S23);
356
357     MD5_STEP (MD5_I , a, b, c, d, w0_t, MD5C30, MD5S30);
358     MD5_STEP (MD5_I , d, a, b, c, w7_t, MD5C31, MD5S31);
359     MD5_STEP (MD5_I , c, d, a, b, we_t, MD5C32, MD5S32);
360     MD5_STEP (MD5_I , b, c, d, a, w5_t, MD5C33, MD5S33);
361     MD5_STEP (MD5_I , a, b, c, d, wc_t, MD5C34, MD5S30);
362     MD5_STEP (MD5_I , d, a, b, c, w3_t, MD5C35, MD5S31);
363     MD5_STEP (MD5_I , c, d, a, b, wa_t, MD5C36, MD5S32);
364     MD5_STEP (MD5_I , b, c, d, a, w1_t, MD5C37, MD5S33);
365     MD5_STEP (MD5_I , a, b, c, d, w8_t, MD5C38, MD5S30);
366     MD5_STEP (MD5_I , d, a, b, c, wf_t, MD5C39, MD5S31);
367     MD5_STEP (MD5_I , c, d, a, b, w6_t, MD5C3a, MD5S32);
368     MD5_STEP (MD5_I , b, c, d, a, wd_t, MD5C3b, MD5S33);
369     MD5_STEP (MD5_I , a, b, c, d, w4_t, MD5C3c, MD5S30);
370     MD5_STEP (MD5_I , d, a, b, c, wb_t, MD5C3d, MD5S31);
371     MD5_STEP (MD5_I , c, d, a, b, w2_t, MD5C3e, MD5S32);
372     MD5_STEP (MD5_I , b, c, d, a, w9_t, MD5C3f, MD5S33);
373
374     const u32 r0 = a;
375     const u32 r1 = d;
376     const u32 r2 = c;
377     const u32 r3 = b;
378
379     #include COMPARE_M
380   }
381 }
382
383 __kernel void __attribute__((reqd_work_group_size (64, 1, 1))) m04400_m08 (__global pw_t *pws, __global gpu_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 rules_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
384 {
385 }
386
387 __kernel void __attribute__((reqd_work_group_size (64, 1, 1))) m04400_m16 (__global pw_t *pws, __global gpu_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 rules_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
388 {
389 }
390
391 __kernel void __attribute__((reqd_work_group_size (64, 1, 1))) m04400_s04 (__global pw_t *pws, __global gpu_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 rules_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
392 {
393   /**
394    * modifier
395    */
396
397   const u32 lid = get_local_id (0);
398
399   /**
400    * base
401    */
402
403   const u32 gid = get_global_id (0);
404
405   u32 pw_buf0[4];
406
407   pw_buf0[0] = pws[gid].i[ 0];
408   pw_buf0[1] = pws[gid].i[ 1];
409   pw_buf0[2] = pws[gid].i[ 2];
410   pw_buf0[3] = pws[gid].i[ 3];
411
412   u32 pw_buf1[4];
413
414   pw_buf1[0] = pws[gid].i[ 4];
415   pw_buf1[1] = pws[gid].i[ 5];
416   pw_buf1[2] = pws[gid].i[ 6];
417   pw_buf1[3] = pws[gid].i[ 7];
418
419   const u32 pw_len = pws[gid].pw_len;
420
421   /**
422    * bin2asc table
423    */
424
425   __local u32 l_bin2asc[256];
426
427   const u32 lid4 = lid * 4;
428
429   const u32 lid40 = lid4 + 0;
430   const u32 lid41 = lid4 + 1;
431   const u32 lid42 = lid4 + 2;
432   const u32 lid43 = lid4 + 3;
433
434   const u32 v400 = (lid40 >> 0) & 15;
435   const u32 v401 = (lid40 >> 4) & 15;
436   const u32 v410 = (lid41 >> 0) & 15;
437   const u32 v411 = (lid41 >> 4) & 15;
438   const u32 v420 = (lid42 >> 0) & 15;
439   const u32 v421 = (lid42 >> 4) & 15;
440   const u32 v430 = (lid43 >> 0) & 15;
441   const u32 v431 = (lid43 >> 4) & 15;
442
443   l_bin2asc[lid40] = ((v400 < 10) ? '0' + v400 : 'a' - 10 + v400) << 8
444                    | ((v401 < 10) ? '0' + v401 : 'a' - 10 + v401) << 0;
445   l_bin2asc[lid41] = ((v410 < 10) ? '0' + v410 : 'a' - 10 + v410) << 8
446                    | ((v411 < 10) ? '0' + v411 : 'a' - 10 + v411) << 0;
447   l_bin2asc[lid42] = ((v420 < 10) ? '0' + v420 : 'a' - 10 + v420) << 8
448                    | ((v421 < 10) ? '0' + v421 : 'a' - 10 + v421) << 0;
449   l_bin2asc[lid43] = ((v430 < 10) ? '0' + v430 : 'a' - 10 + v430) << 8
450                    | ((v431 < 10) ? '0' + v431 : 'a' - 10 + v431) << 0;
451
452   barrier (CLK_LOCAL_MEM_FENCE);
453
454   if (gid >= gid_max) return;
455
456   /**
457    * digest
458    */
459
460   const u32 search[4] =
461   {
462     digests_buf[digests_offset].digest_buf[DGST_R0],
463     digests_buf[digests_offset].digest_buf[DGST_R1],
464     digests_buf[digests_offset].digest_buf[DGST_R2],
465     digests_buf[digests_offset].digest_buf[DGST_R3]
466   };
467
468   /**
469    * loop
470    */
471
472   for (u32 il_pos = 0; il_pos < rules_cnt; il_pos++)
473   {
474     u32 w0[4];
475
476     w0[0] = pw_buf0[0];
477     w0[1] = pw_buf0[1];
478     w0[2] = pw_buf0[2];
479     w0[3] = pw_buf0[3];
480
481     u32 w1[4];
482
483     w1[0] = pw_buf1[0];
484     w1[1] = pw_buf1[1];
485     w1[2] = pw_buf1[2];
486     w1[3] = pw_buf1[3];
487
488     u32 w2[4];
489
490     w2[0] = 0;
491     w2[1] = 0;
492     w2[2] = 0;
493     w2[3] = 0;
494
495     u32 w3[4];
496
497     w3[0] = 0;
498     w3[1] = 0;
499     w3[2] = 0;
500     w3[3] = 0;
501
502     const u32 out_len = apply_rules (rules_buf[il_pos].cmds, w0, w1, pw_len);
503
504     append_0x80_2x4 (w0, w1, out_len);
505
506     /**
507      * sha1
508      */
509
510     u32 w0_t = swap_workaround (w0[0]);
511     u32 w1_t = swap_workaround (w0[1]);
512     u32 w2_t = swap_workaround (w0[2]);
513     u32 w3_t = swap_workaround (w0[3]);
514     u32 w4_t = swap_workaround (w1[0]);
515     u32 w5_t = swap_workaround (w1[1]);
516     u32 w6_t = swap_workaround (w1[2]);
517     u32 w7_t = swap_workaround (w1[3]);
518     u32 w8_t = swap_workaround (w2[0]);
519     u32 w9_t = swap_workaround (w2[1]);
520     u32 wa_t = swap_workaround (w2[2]);
521     u32 wb_t = swap_workaround (w2[3]);
522     u32 wc_t = swap_workaround (w3[0]);
523     u32 wd_t = swap_workaround (w3[1]);
524     u32 we_t = 0;
525     u32 wf_t = out_len * 8;
526
527     u32 a = SHA1M_A;
528     u32 b = SHA1M_B;
529     u32 c = SHA1M_C;
530     u32 d = SHA1M_D;
531     u32 e = SHA1M_E;
532
533     #undef K
534     #define K SHA1C00
535
536     SHA1_STEP (SHA1_F0o, a, b, c, d, e, w0_t);
537     SHA1_STEP (SHA1_F0o, e, a, b, c, d, w1_t);
538     SHA1_STEP (SHA1_F0o, d, e, a, b, c, w2_t);
539     SHA1_STEP (SHA1_F0o, c, d, e, a, b, w3_t);
540     SHA1_STEP (SHA1_F0o, b, c, d, e, a, w4_t);
541     SHA1_STEP (SHA1_F0o, a, b, c, d, e, w5_t);
542     SHA1_STEP (SHA1_F0o, e, a, b, c, d, w6_t);
543     SHA1_STEP (SHA1_F0o, d, e, a, b, c, w7_t);
544     SHA1_STEP (SHA1_F0o, c, d, e, a, b, w8_t);
545     SHA1_STEP (SHA1_F0o, b, c, d, e, a, w9_t);
546     SHA1_STEP (SHA1_F0o, a, b, c, d, e, wa_t);
547     SHA1_STEP (SHA1_F0o, e, a, b, c, d, wb_t);
548     SHA1_STEP (SHA1_F0o, d, e, a, b, c, wc_t);
549     SHA1_STEP (SHA1_F0o, c, d, e, a, b, wd_t);
550     SHA1_STEP (SHA1_F0o, b, c, d, e, a, we_t);
551     SHA1_STEP (SHA1_F0o, a, b, c, d, e, wf_t);
552     w0_t = rotl32 ((wd_t ^ w8_t ^ w2_t ^ w0_t), 1u); SHA1_STEP (SHA1_F0o, e, a, b, c, d, w0_t);
553     w1_t = rotl32 ((we_t ^ w9_t ^ w3_t ^ w1_t), 1u); SHA1_STEP (SHA1_F0o, d, e, a, b, c, w1_t);
554     w2_t = rotl32 ((wf_t ^ wa_t ^ w4_t ^ w2_t), 1u); SHA1_STEP (SHA1_F0o, c, d, e, a, b, w2_t);
555     w3_t = rotl32 ((w0_t ^ wb_t ^ w5_t ^ w3_t), 1u); SHA1_STEP (SHA1_F0o, b, c, d, e, a, w3_t);
556
557     #undef K
558     #define K SHA1C01
559
560     w4_t = rotl32 ((w1_t ^ wc_t ^ w6_t ^ w4_t), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w4_t);
561     w5_t = rotl32 ((w2_t ^ wd_t ^ w7_t ^ w5_t), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w5_t);
562     w6_t = rotl32 ((w3_t ^ we_t ^ w8_t ^ w6_t), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w6_t);
563     w7_t = rotl32 ((w4_t ^ wf_t ^ w9_t ^ w7_t), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w7_t);
564     w8_t = rotl32 ((w5_t ^ w0_t ^ wa_t ^ w8_t), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w8_t);
565     w9_t = rotl32 ((w6_t ^ w1_t ^ wb_t ^ w9_t), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w9_t);
566     wa_t = rotl32 ((w7_t ^ w2_t ^ wc_t ^ wa_t), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, wa_t);
567     wb_t = rotl32 ((w8_t ^ w3_t ^ wd_t ^ wb_t), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, wb_t);
568     wc_t = rotl32 ((w9_t ^ w4_t ^ we_t ^ wc_t), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, wc_t);
569     wd_t = rotl32 ((wa_t ^ w5_t ^ wf_t ^ wd_t), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, wd_t);
570     we_t = rotl32 ((wb_t ^ w6_t ^ w0_t ^ we_t), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, we_t);
571     wf_t = rotl32 ((wc_t ^ w7_t ^ w1_t ^ wf_t), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, wf_t);
572     w0_t = rotl32 ((wd_t ^ w8_t ^ w2_t ^ w0_t), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w0_t);
573     w1_t = rotl32 ((we_t ^ w9_t ^ w3_t ^ w1_t), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w1_t);
574     w2_t = rotl32 ((wf_t ^ wa_t ^ w4_t ^ w2_t), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w2_t);
575     w3_t = rotl32 ((w0_t ^ wb_t ^ w5_t ^ w3_t), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w3_t);
576     w4_t = rotl32 ((w1_t ^ wc_t ^ w6_t ^ w4_t), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w4_t);
577     w5_t = rotl32 ((w2_t ^ wd_t ^ w7_t ^ w5_t), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w5_t);
578     w6_t = rotl32 ((w3_t ^ we_t ^ w8_t ^ w6_t), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w6_t);
579     w7_t = rotl32 ((w4_t ^ wf_t ^ w9_t ^ w7_t), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w7_t);
580
581     #undef K
582     #define K SHA1C02
583
584     w8_t = rotl32 ((w5_t ^ w0_t ^ wa_t ^ w8_t), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, w8_t);
585     w9_t = rotl32 ((w6_t ^ w1_t ^ wb_t ^ w9_t), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, w9_t);
586     wa_t = rotl32 ((w7_t ^ w2_t ^ wc_t ^ wa_t), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, wa_t);
587     wb_t = rotl32 ((w8_t ^ w3_t ^ wd_t ^ wb_t), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, wb_t);
588     wc_t = rotl32 ((w9_t ^ w4_t ^ we_t ^ wc_t), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, wc_t);
589     wd_t = rotl32 ((wa_t ^ w5_t ^ wf_t ^ wd_t), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, wd_t);
590     we_t = rotl32 ((wb_t ^ w6_t ^ w0_t ^ we_t), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, we_t);
591     wf_t = rotl32 ((wc_t ^ w7_t ^ w1_t ^ wf_t), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, wf_t);
592     w0_t = rotl32 ((wd_t ^ w8_t ^ w2_t ^ w0_t), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, w0_t);
593     w1_t = rotl32 ((we_t ^ w9_t ^ w3_t ^ w1_t), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, w1_t);
594     w2_t = rotl32 ((wf_t ^ wa_t ^ w4_t ^ w2_t), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, w2_t);
595     w3_t = rotl32 ((w0_t ^ wb_t ^ w5_t ^ w3_t), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, w3_t);
596     w4_t = rotl32 ((w1_t ^ wc_t ^ w6_t ^ w4_t), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, w4_t);
597     w5_t = rotl32 ((w2_t ^ wd_t ^ w7_t ^ w5_t), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, w5_t);
598     w6_t = rotl32 ((w3_t ^ we_t ^ w8_t ^ w6_t), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, w6_t);
599     w7_t = rotl32 ((w4_t ^ wf_t ^ w9_t ^ w7_t), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, w7_t);
600     w8_t = rotl32 ((w5_t ^ w0_t ^ wa_t ^ w8_t), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, w8_t);
601     w9_t = rotl32 ((w6_t ^ w1_t ^ wb_t ^ w9_t), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, w9_t);
602     wa_t = rotl32 ((w7_t ^ w2_t ^ wc_t ^ wa_t), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, wa_t);
603     wb_t = rotl32 ((w8_t ^ w3_t ^ wd_t ^ wb_t), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, wb_t);
604
605     #undef K
606     #define K SHA1C03
607
608     wc_t = rotl32 ((w9_t ^ w4_t ^ we_t ^ wc_t), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, wc_t);
609     wd_t = rotl32 ((wa_t ^ w5_t ^ wf_t ^ wd_t), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, wd_t);
610     we_t = rotl32 ((wb_t ^ w6_t ^ w0_t ^ we_t), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, we_t);
611     wf_t = rotl32 ((wc_t ^ w7_t ^ w1_t ^ wf_t), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, wf_t);
612     w0_t = rotl32 ((wd_t ^ w8_t ^ w2_t ^ w0_t), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w0_t);
613     w1_t = rotl32 ((we_t ^ w9_t ^ w3_t ^ w1_t), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w1_t);
614     w2_t = rotl32 ((wf_t ^ wa_t ^ w4_t ^ w2_t), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w2_t);
615     w3_t = rotl32 ((w0_t ^ wb_t ^ w5_t ^ w3_t), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w3_t);
616     w4_t = rotl32 ((w1_t ^ wc_t ^ w6_t ^ w4_t), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w4_t);
617     w5_t = rotl32 ((w2_t ^ wd_t ^ w7_t ^ w5_t), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w5_t);
618     w6_t = rotl32 ((w3_t ^ we_t ^ w8_t ^ w6_t), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w6_t);
619     w7_t = rotl32 ((w4_t ^ wf_t ^ w9_t ^ w7_t), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w7_t);
620     w8_t = rotl32 ((w5_t ^ w0_t ^ wa_t ^ w8_t), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w8_t);
621     w9_t = rotl32 ((w6_t ^ w1_t ^ wb_t ^ w9_t), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w9_t);
622     wa_t = rotl32 ((w7_t ^ w2_t ^ wc_t ^ wa_t), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, wa_t);
623     wb_t = rotl32 ((w8_t ^ w3_t ^ wd_t ^ wb_t), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, wb_t);
624     wc_t = rotl32 ((w9_t ^ w4_t ^ we_t ^ wc_t), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, wc_t);
625     wd_t = rotl32 ((wa_t ^ w5_t ^ wf_t ^ wd_t), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, wd_t);
626     we_t = rotl32 ((wb_t ^ w6_t ^ w0_t ^ we_t), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, we_t);
627     wf_t = rotl32 ((wc_t ^ w7_t ^ w1_t ^ wf_t), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, wf_t);
628
629     a += SHA1M_A;
630     b += SHA1M_B;
631     c += SHA1M_C;
632     d += SHA1M_D;
633     e += SHA1M_E;
634
635     /**
636      * md5
637      */
638
639     w0_t = uint_to_hex_lower8 ((a >> 24) & 255) <<  0
640          | uint_to_hex_lower8 ((a >> 16) & 255) << 16;
641     w1_t = uint_to_hex_lower8 ((a >>  8) & 255) <<  0
642          | uint_to_hex_lower8 ((a >>  0) & 255) << 16;
643     w2_t = uint_to_hex_lower8 ((b >> 24) & 255) <<  0
644          | uint_to_hex_lower8 ((b >> 16) & 255) << 16;
645     w3_t = uint_to_hex_lower8 ((b >>  8) & 255) <<  0
646          | uint_to_hex_lower8 ((b >>  0) & 255) << 16;
647     w4_t = uint_to_hex_lower8 ((c >> 24) & 255) <<  0
648          | uint_to_hex_lower8 ((c >> 16) & 255) << 16;
649     w5_t = uint_to_hex_lower8 ((c >>  8) & 255) <<  0
650          | uint_to_hex_lower8 ((c >>  0) & 255) << 16;
651     w6_t = uint_to_hex_lower8 ((d >> 24) & 255) <<  0
652          | uint_to_hex_lower8 ((d >> 16) & 255) << 16;
653     w7_t = uint_to_hex_lower8 ((d >>  8) & 255) <<  0
654          | uint_to_hex_lower8 ((d >>  0) & 255) << 16;
655     w8_t = uint_to_hex_lower8 ((e >> 24) & 255) <<  0
656          | uint_to_hex_lower8 ((e >> 16) & 255) << 16;
657     w9_t = uint_to_hex_lower8 ((e >>  8) & 255) <<  0
658          | uint_to_hex_lower8 ((e >>  0) & 255) << 16;
659
660     wa_t = 0x80;
661     wb_t = 0;
662     wc_t = 0;
663     wd_t = 0;
664     we_t = 40 * 8;
665     wf_t = 0;
666
667     a = MD5M_A;
668     b = MD5M_B;
669     c = MD5M_C;
670     d = MD5M_D;
671
672     MD5_STEP (MD5_Fo, a, b, c, d, w0_t, MD5C00, MD5S00);
673     MD5_STEP (MD5_Fo, d, a, b, c, w1_t, MD5C01, MD5S01);
674     MD5_STEP (MD5_Fo, c, d, a, b, w2_t, MD5C02, MD5S02);
675     MD5_STEP (MD5_Fo, b, c, d, a, w3_t, MD5C03, MD5S03);
676     MD5_STEP (MD5_Fo, a, b, c, d, w4_t, MD5C04, MD5S00);
677     MD5_STEP (MD5_Fo, d, a, b, c, w5_t, MD5C05, MD5S01);
678     MD5_STEP (MD5_Fo, c, d, a, b, w6_t, MD5C06, MD5S02);
679     MD5_STEP (MD5_Fo, b, c, d, a, w7_t, MD5C07, MD5S03);
680     MD5_STEP (MD5_Fo, a, b, c, d, w8_t, MD5C08, MD5S00);
681     MD5_STEP (MD5_Fo, d, a, b, c, w9_t, MD5C09, MD5S01);
682     MD5_STEP (MD5_Fo, c, d, a, b, wa_t, MD5C0a, MD5S02);
683     MD5_STEP (MD5_Fo, b, c, d, a, wb_t, MD5C0b, MD5S03);
684     MD5_STEP (MD5_Fo, a, b, c, d, wc_t, MD5C0c, MD5S00);
685     MD5_STEP (MD5_Fo, d, a, b, c, wd_t, MD5C0d, MD5S01);
686     MD5_STEP (MD5_Fo, c, d, a, b, we_t, MD5C0e, MD5S02);
687     MD5_STEP (MD5_Fo, b, c, d, a, wf_t, MD5C0f, MD5S03);
688
689     MD5_STEP (MD5_Go, a, b, c, d, w1_t, MD5C10, MD5S10);
690     MD5_STEP (MD5_Go, d, a, b, c, w6_t, MD5C11, MD5S11);
691     MD5_STEP (MD5_Go, c, d, a, b, wb_t, MD5C12, MD5S12);
692     MD5_STEP (MD5_Go, b, c, d, a, w0_t, MD5C13, MD5S13);
693     MD5_STEP (MD5_Go, a, b, c, d, w5_t, MD5C14, MD5S10);
694     MD5_STEP (MD5_Go, d, a, b, c, wa_t, MD5C15, MD5S11);
695     MD5_STEP (MD5_Go, c, d, a, b, wf_t, MD5C16, MD5S12);
696     MD5_STEP (MD5_Go, b, c, d, a, w4_t, MD5C17, MD5S13);
697     MD5_STEP (MD5_Go, a, b, c, d, w9_t, MD5C18, MD5S10);
698     MD5_STEP (MD5_Go, d, a, b, c, we_t, MD5C19, MD5S11);
699     MD5_STEP (MD5_Go, c, d, a, b, w3_t, MD5C1a, MD5S12);
700     MD5_STEP (MD5_Go, b, c, d, a, w8_t, MD5C1b, MD5S13);
701     MD5_STEP (MD5_Go, a, b, c, d, wd_t, MD5C1c, MD5S10);
702     MD5_STEP (MD5_Go, d, a, b, c, w2_t, MD5C1d, MD5S11);
703     MD5_STEP (MD5_Go, c, d, a, b, w7_t, MD5C1e, MD5S12);
704     MD5_STEP (MD5_Go, b, c, d, a, wc_t, MD5C1f, MD5S13);
705
706     MD5_STEP (MD5_H , a, b, c, d, w5_t, MD5C20, MD5S20);
707     MD5_STEP (MD5_H , d, a, b, c, w8_t, MD5C21, MD5S21);
708     MD5_STEP (MD5_H , c, d, a, b, wb_t, MD5C22, MD5S22);
709     MD5_STEP (MD5_H , b, c, d, a, we_t, MD5C23, MD5S23);
710     MD5_STEP (MD5_H , a, b, c, d, w1_t, MD5C24, MD5S20);
711     MD5_STEP (MD5_H , d, a, b, c, w4_t, MD5C25, MD5S21);
712     MD5_STEP (MD5_H , c, d, a, b, w7_t, MD5C26, MD5S22);
713     MD5_STEP (MD5_H , b, c, d, a, wa_t, MD5C27, MD5S23);
714     MD5_STEP (MD5_H , a, b, c, d, wd_t, MD5C28, MD5S20);
715     MD5_STEP (MD5_H , d, a, b, c, w0_t, MD5C29, MD5S21);
716     MD5_STEP (MD5_H , c, d, a, b, w3_t, MD5C2a, MD5S22);
717     MD5_STEP (MD5_H , b, c, d, a, w6_t, MD5C2b, MD5S23);
718     MD5_STEP (MD5_H , a, b, c, d, w9_t, MD5C2c, MD5S20);
719     MD5_STEP (MD5_H , d, a, b, c, wc_t, MD5C2d, MD5S21);
720     MD5_STEP (MD5_H , c, d, a, b, wf_t, MD5C2e, MD5S22);
721     MD5_STEP (MD5_H , b, c, d, a, w2_t, MD5C2f, MD5S23);
722
723     MD5_STEP (MD5_I , a, b, c, d, w0_t, MD5C30, MD5S30);
724     MD5_STEP (MD5_I , d, a, b, c, w7_t, MD5C31, MD5S31);
725     MD5_STEP (MD5_I , c, d, a, b, we_t, MD5C32, MD5S32);
726     MD5_STEP (MD5_I , b, c, d, a, w5_t, MD5C33, MD5S33);
727     MD5_STEP (MD5_I , a, b, c, d, wc_t, MD5C34, MD5S30);
728     MD5_STEP (MD5_I , d, a, b, c, w3_t, MD5C35, MD5S31);
729     MD5_STEP (MD5_I , c, d, a, b, wa_t, MD5C36, MD5S32);
730     MD5_STEP (MD5_I , b, c, d, a, w1_t, MD5C37, MD5S33);
731     MD5_STEP (MD5_I , a, b, c, d, w8_t, MD5C38, MD5S30);
732     MD5_STEP (MD5_I , d, a, b, c, wf_t, MD5C39, MD5S31);
733     MD5_STEP (MD5_I , c, d, a, b, w6_t, MD5C3a, MD5S32);
734     MD5_STEP (MD5_I , b, c, d, a, wd_t, MD5C3b, MD5S33);
735     MD5_STEP (MD5_I , a, b, c, d, w4_t, MD5C3c, MD5S30);
736     MD5_STEP (MD5_I , d, a, b, c, wb_t, MD5C3d, MD5S31);
737     MD5_STEP (MD5_I , c, d, a, b, w2_t, MD5C3e, MD5S32);
738     MD5_STEP (MD5_I , b, c, d, a, w9_t, MD5C3f, MD5S33);
739
740     const u32 r0 = a;
741     const u32 r1 = d;
742     const u32 r2 = c;
743     const u32 r3 = b;
744
745     #include COMPARE_S
746   }
747 }
748
749 __kernel void __attribute__((reqd_work_group_size (64, 1, 1))) m04400_s08 (__global pw_t *pws, __global gpu_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 rules_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
750 {
751 }
752
753 __kernel void __attribute__((reqd_work_group_size (64, 1, 1))) m04400_s16 (__global pw_t *pws, __global gpu_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 rules_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
754 {
755 }