Fix append_* function calls
[hashcat.git] / OpenCL / m09800_a1.cl
1 /**
2  * Author......: Jens Steube <jens.steube@gmail.com>
3  * License.....: MIT
4  */
5
6 #define _OLDOFFICE34_
7
8 #include "include/constants.h"
9 #include "include/kernel_vendor.h"
10
11 #define DGST_R0 0
12 #define DGST_R1 1
13 #define DGST_R2 2
14 #define DGST_R3 3
15
16 #include "include/kernel_functions.c"
17 #include "types_ocl.c"
18 #include "common.c"
19
20 #define COMPARE_S "check_single_comp4.c"
21 #define COMPARE_M "check_multi_comp4.c"
22
23 typedef struct
24 {
25   u8 S[256];
26
27   u32 wtf_its_faster;
28
29 } RC4_KEY;
30
31 static void swap (__local RC4_KEY *rc4_key, const u8 i, const u8 j)
32 {
33   u8 tmp;
34
35   tmp           = rc4_key->S[i];
36   rc4_key->S[i] = rc4_key->S[j];
37   rc4_key->S[j] = tmp;
38 }
39
40 static void rc4_init_16 (__local RC4_KEY *rc4_key, const u32 data[4])
41 {
42   u32 v = 0x03020100;
43   u32 a = 0x04040404;
44
45   __local u32 *ptr = (__local u32 *) rc4_key->S;
46
47   #pragma unroll
48   for (u32 i = 0; i < 64; i++)
49   {
50     *ptr++ = v; v += a;
51   }
52
53   u32 j = 0;
54
55   #pragma unroll
56   for (u32 i = 0; i < 16; i++)
57   {
58     u32 idx = i * 16;
59
60     u32 v;
61
62     v = data[0];
63
64     j += rc4_key->S[idx] + (v >>  0); swap (rc4_key, idx, j); idx++;
65     j += rc4_key->S[idx] + (v >>  8); swap (rc4_key, idx, j); idx++;
66     j += rc4_key->S[idx] + (v >> 16); swap (rc4_key, idx, j); idx++;
67     j += rc4_key->S[idx] + (v >> 24); swap (rc4_key, idx, j); idx++;
68
69     v = data[1];
70
71     j += rc4_key->S[idx] + (v >>  0); swap (rc4_key, idx, j); idx++;
72     j += rc4_key->S[idx] + (v >>  8); swap (rc4_key, idx, j); idx++;
73     j += rc4_key->S[idx] + (v >> 16); swap (rc4_key, idx, j); idx++;
74     j += rc4_key->S[idx] + (v >> 24); swap (rc4_key, idx, j); idx++;
75
76     v = data[2];
77
78     j += rc4_key->S[idx] + (v >>  0); swap (rc4_key, idx, j); idx++;
79     j += rc4_key->S[idx] + (v >>  8); swap (rc4_key, idx, j); idx++;
80     j += rc4_key->S[idx] + (v >> 16); swap (rc4_key, idx, j); idx++;
81     j += rc4_key->S[idx] + (v >> 24); swap (rc4_key, idx, j); idx++;
82
83     v = data[3];
84
85     j += rc4_key->S[idx] + (v >>  0); swap (rc4_key, idx, j); idx++;
86     j += rc4_key->S[idx] + (v >>  8); swap (rc4_key, idx, j); idx++;
87     j += rc4_key->S[idx] + (v >> 16); swap (rc4_key, idx, j); idx++;
88     j += rc4_key->S[idx] + (v >> 24); swap (rc4_key, idx, j); idx++;
89   }
90 }
91
92 static u8 rc4_next_16 (__local RC4_KEY *rc4_key, u8 i, u8 j, const u32 in[4], u32 out[4])
93 {
94   #pragma unroll
95   for (u32 k = 0; k < 4; k++)
96   {
97     u32 xor4 = 0;
98
99     u8 idx;
100
101     i += 1;
102     j += rc4_key->S[i];
103
104     swap (rc4_key, i, j);
105
106     idx = rc4_key->S[i] + rc4_key->S[j];
107
108     xor4 |= rc4_key->S[idx] <<  0;
109
110     i += 1;
111     j += rc4_key->S[i];
112
113     swap (rc4_key, i, j);
114
115     idx = rc4_key->S[i] + rc4_key->S[j];
116
117     xor4 |= rc4_key->S[idx] <<  8;
118
119     i += 1;
120     j += rc4_key->S[i];
121
122     swap (rc4_key, i, j);
123
124     idx = rc4_key->S[i] + rc4_key->S[j];
125
126     xor4 |= rc4_key->S[idx] << 16;
127
128     i += 1;
129     j += rc4_key->S[i];
130
131     swap (rc4_key, i, j);
132
133     idx = rc4_key->S[i] + rc4_key->S[j];
134
135     xor4 |= rc4_key->S[idx] << 24;
136
137     out[k] = in[k] ^ xor4;
138   }
139
140   return j;
141 }
142
143 static void sha1_transform (const u32 w0[4], const u32 w1[4], const u32 w2[4], const u32 w3[4], u32 digest[5])
144 {
145   u32 A = digest[0];
146   u32 B = digest[1];
147   u32 C = digest[2];
148   u32 D = digest[3];
149   u32 E = digest[4];
150
151   u32 w0_t = w0[0];
152   u32 w1_t = w0[1];
153   u32 w2_t = w0[2];
154   u32 w3_t = w0[3];
155   u32 w4_t = w1[0];
156   u32 w5_t = w1[1];
157   u32 w6_t = w1[2];
158   u32 w7_t = w1[3];
159   u32 w8_t = w2[0];
160   u32 w9_t = w2[1];
161   u32 wa_t = w2[2];
162   u32 wb_t = w2[3];
163   u32 wc_t = w3[0];
164   u32 wd_t = w3[1];
165   u32 we_t = w3[2];
166   u32 wf_t = w3[3];
167
168   #undef K
169   #define K SHA1C00
170
171   SHA1_STEP (SHA1_F0o, A, B, C, D, E, w0_t);
172   SHA1_STEP (SHA1_F0o, E, A, B, C, D, w1_t);
173   SHA1_STEP (SHA1_F0o, D, E, A, B, C, w2_t);
174   SHA1_STEP (SHA1_F0o, C, D, E, A, B, w3_t);
175   SHA1_STEP (SHA1_F0o, B, C, D, E, A, w4_t);
176   SHA1_STEP (SHA1_F0o, A, B, C, D, E, w5_t);
177   SHA1_STEP (SHA1_F0o, E, A, B, C, D, w6_t);
178   SHA1_STEP (SHA1_F0o, D, E, A, B, C, w7_t);
179   SHA1_STEP (SHA1_F0o, C, D, E, A, B, w8_t);
180   SHA1_STEP (SHA1_F0o, B, C, D, E, A, w9_t);
181   SHA1_STEP (SHA1_F0o, A, B, C, D, E, wa_t);
182   SHA1_STEP (SHA1_F0o, E, A, B, C, D, wb_t);
183   SHA1_STEP (SHA1_F0o, D, E, A, B, C, wc_t);
184   SHA1_STEP (SHA1_F0o, C, D, E, A, B, wd_t);
185   SHA1_STEP (SHA1_F0o, B, C, D, E, A, we_t);
186   SHA1_STEP (SHA1_F0o, A, B, C, D, E, wf_t);
187   w0_t = rotl32 ((wd_t ^ w8_t ^ w2_t ^ w0_t), 1u); SHA1_STEP (SHA1_F0o, E, A, B, C, D, w0_t);
188   w1_t = rotl32 ((we_t ^ w9_t ^ w3_t ^ w1_t), 1u); SHA1_STEP (SHA1_F0o, D, E, A, B, C, w1_t);
189   w2_t = rotl32 ((wf_t ^ wa_t ^ w4_t ^ w2_t), 1u); SHA1_STEP (SHA1_F0o, C, D, E, A, B, w2_t);
190   w3_t = rotl32 ((w0_t ^ wb_t ^ w5_t ^ w3_t), 1u); SHA1_STEP (SHA1_F0o, B, C, D, E, A, w3_t);
191
192   #undef K
193   #define K SHA1C01
194
195   w4_t = rotl32 ((w1_t ^ wc_t ^ w6_t ^ w4_t), 1u); SHA1_STEP (SHA1_F1, A, B, C, D, E, w4_t);
196   w5_t = rotl32 ((w2_t ^ wd_t ^ w7_t ^ w5_t), 1u); SHA1_STEP (SHA1_F1, E, A, B, C, D, w5_t);
197   w6_t = rotl32 ((w3_t ^ we_t ^ w8_t ^ w6_t), 1u); SHA1_STEP (SHA1_F1, D, E, A, B, C, w6_t);
198   w7_t = rotl32 ((w4_t ^ wf_t ^ w9_t ^ w7_t), 1u); SHA1_STEP (SHA1_F1, C, D, E, A, B, w7_t);
199   w8_t = rotl32 ((w5_t ^ w0_t ^ wa_t ^ w8_t), 1u); SHA1_STEP (SHA1_F1, B, C, D, E, A, w8_t);
200   w9_t = rotl32 ((w6_t ^ w1_t ^ wb_t ^ w9_t), 1u); SHA1_STEP (SHA1_F1, A, B, C, D, E, w9_t);
201   wa_t = rotl32 ((w7_t ^ w2_t ^ wc_t ^ wa_t), 1u); SHA1_STEP (SHA1_F1, E, A, B, C, D, wa_t);
202   wb_t = rotl32 ((w8_t ^ w3_t ^ wd_t ^ wb_t), 1u); SHA1_STEP (SHA1_F1, D, E, A, B, C, wb_t);
203   wc_t = rotl32 ((w9_t ^ w4_t ^ we_t ^ wc_t), 1u); SHA1_STEP (SHA1_F1, C, D, E, A, B, wc_t);
204   wd_t = rotl32 ((wa_t ^ w5_t ^ wf_t ^ wd_t), 1u); SHA1_STEP (SHA1_F1, B, C, D, E, A, wd_t);
205   we_t = rotl32 ((wb_t ^ w6_t ^ w0_t ^ we_t), 1u); SHA1_STEP (SHA1_F1, A, B, C, D, E, we_t);
206   wf_t = rotl32 ((wc_t ^ w7_t ^ w1_t ^ wf_t), 1u); SHA1_STEP (SHA1_F1, E, A, B, C, D, wf_t);
207   w0_t = rotl32 ((wd_t ^ w8_t ^ w2_t ^ w0_t), 1u); SHA1_STEP (SHA1_F1, D, E, A, B, C, w0_t);
208   w1_t = rotl32 ((we_t ^ w9_t ^ w3_t ^ w1_t), 1u); SHA1_STEP (SHA1_F1, C, D, E, A, B, w1_t);
209   w2_t = rotl32 ((wf_t ^ wa_t ^ w4_t ^ w2_t), 1u); SHA1_STEP (SHA1_F1, B, C, D, E, A, w2_t);
210   w3_t = rotl32 ((w0_t ^ wb_t ^ w5_t ^ w3_t), 1u); SHA1_STEP (SHA1_F1, A, B, C, D, E, w3_t);
211   w4_t = rotl32 ((w1_t ^ wc_t ^ w6_t ^ w4_t), 1u); SHA1_STEP (SHA1_F1, E, A, B, C, D, w4_t);
212   w5_t = rotl32 ((w2_t ^ wd_t ^ w7_t ^ w5_t), 1u); SHA1_STEP (SHA1_F1, D, E, A, B, C, w5_t);
213   w6_t = rotl32 ((w3_t ^ we_t ^ w8_t ^ w6_t), 1u); SHA1_STEP (SHA1_F1, C, D, E, A, B, w6_t);
214   w7_t = rotl32 ((w4_t ^ wf_t ^ w9_t ^ w7_t), 1u); SHA1_STEP (SHA1_F1, B, C, D, E, A, w7_t);
215
216   #undef K
217   #define K SHA1C02
218
219   w8_t = rotl32 ((w5_t ^ w0_t ^ wa_t ^ w8_t), 1u); SHA1_STEP (SHA1_F2o, A, B, C, D, E, w8_t);
220   w9_t = rotl32 ((w6_t ^ w1_t ^ wb_t ^ w9_t), 1u); SHA1_STEP (SHA1_F2o, E, A, B, C, D, w9_t);
221   wa_t = rotl32 ((w7_t ^ w2_t ^ wc_t ^ wa_t), 1u); SHA1_STEP (SHA1_F2o, D, E, A, B, C, wa_t);
222   wb_t = rotl32 ((w8_t ^ w3_t ^ wd_t ^ wb_t), 1u); SHA1_STEP (SHA1_F2o, C, D, E, A, B, wb_t);
223   wc_t = rotl32 ((w9_t ^ w4_t ^ we_t ^ wc_t), 1u); SHA1_STEP (SHA1_F2o, B, C, D, E, A, wc_t);
224   wd_t = rotl32 ((wa_t ^ w5_t ^ wf_t ^ wd_t), 1u); SHA1_STEP (SHA1_F2o, A, B, C, D, E, wd_t);
225   we_t = rotl32 ((wb_t ^ w6_t ^ w0_t ^ we_t), 1u); SHA1_STEP (SHA1_F2o, E, A, B, C, D, we_t);
226   wf_t = rotl32 ((wc_t ^ w7_t ^ w1_t ^ wf_t), 1u); SHA1_STEP (SHA1_F2o, D, E, A, B, C, wf_t);
227   w0_t = rotl32 ((wd_t ^ w8_t ^ w2_t ^ w0_t), 1u); SHA1_STEP (SHA1_F2o, C, D, E, A, B, w0_t);
228   w1_t = rotl32 ((we_t ^ w9_t ^ w3_t ^ w1_t), 1u); SHA1_STEP (SHA1_F2o, B, C, D, E, A, w1_t);
229   w2_t = rotl32 ((wf_t ^ wa_t ^ w4_t ^ w2_t), 1u); SHA1_STEP (SHA1_F2o, A, B, C, D, E, w2_t);
230   w3_t = rotl32 ((w0_t ^ wb_t ^ w5_t ^ w3_t), 1u); SHA1_STEP (SHA1_F2o, E, A, B, C, D, w3_t);
231   w4_t = rotl32 ((w1_t ^ wc_t ^ w6_t ^ w4_t), 1u); SHA1_STEP (SHA1_F2o, D, E, A, B, C, w4_t);
232   w5_t = rotl32 ((w2_t ^ wd_t ^ w7_t ^ w5_t), 1u); SHA1_STEP (SHA1_F2o, C, D, E, A, B, w5_t);
233   w6_t = rotl32 ((w3_t ^ we_t ^ w8_t ^ w6_t), 1u); SHA1_STEP (SHA1_F2o, B, C, D, E, A, w6_t);
234   w7_t = rotl32 ((w4_t ^ wf_t ^ w9_t ^ w7_t), 1u); SHA1_STEP (SHA1_F2o, A, B, C, D, E, w7_t);
235   w8_t = rotl32 ((w5_t ^ w0_t ^ wa_t ^ w8_t), 1u); SHA1_STEP (SHA1_F2o, E, A, B, C, D, w8_t);
236   w9_t = rotl32 ((w6_t ^ w1_t ^ wb_t ^ w9_t), 1u); SHA1_STEP (SHA1_F2o, D, E, A, B, C, w9_t);
237   wa_t = rotl32 ((w7_t ^ w2_t ^ wc_t ^ wa_t), 1u); SHA1_STEP (SHA1_F2o, C, D, E, A, B, wa_t);
238   wb_t = rotl32 ((w8_t ^ w3_t ^ wd_t ^ wb_t), 1u); SHA1_STEP (SHA1_F2o, B, C, D, E, A, wb_t);
239
240   #undef K
241   #define K SHA1C03
242
243   wc_t = rotl32 ((w9_t ^ w4_t ^ we_t ^ wc_t), 1u); SHA1_STEP (SHA1_F1, A, B, C, D, E, wc_t);
244   wd_t = rotl32 ((wa_t ^ w5_t ^ wf_t ^ wd_t), 1u); SHA1_STEP (SHA1_F1, E, A, B, C, D, wd_t);
245   we_t = rotl32 ((wb_t ^ w6_t ^ w0_t ^ we_t), 1u); SHA1_STEP (SHA1_F1, D, E, A, B, C, we_t);
246   wf_t = rotl32 ((wc_t ^ w7_t ^ w1_t ^ wf_t), 1u); SHA1_STEP (SHA1_F1, C, D, E, A, B, wf_t);
247   w0_t = rotl32 ((wd_t ^ w8_t ^ w2_t ^ w0_t), 1u); SHA1_STEP (SHA1_F1, B, C, D, E, A, w0_t);
248   w1_t = rotl32 ((we_t ^ w9_t ^ w3_t ^ w1_t), 1u); SHA1_STEP (SHA1_F1, A, B, C, D, E, w1_t);
249   w2_t = rotl32 ((wf_t ^ wa_t ^ w4_t ^ w2_t), 1u); SHA1_STEP (SHA1_F1, E, A, B, C, D, w2_t);
250   w3_t = rotl32 ((w0_t ^ wb_t ^ w5_t ^ w3_t), 1u); SHA1_STEP (SHA1_F1, D, E, A, B, C, w3_t);
251   w4_t = rotl32 ((w1_t ^ wc_t ^ w6_t ^ w4_t), 1u); SHA1_STEP (SHA1_F1, C, D, E, A, B, w4_t);
252   w5_t = rotl32 ((w2_t ^ wd_t ^ w7_t ^ w5_t), 1u); SHA1_STEP (SHA1_F1, B, C, D, E, A, w5_t);
253   w6_t = rotl32 ((w3_t ^ we_t ^ w8_t ^ w6_t), 1u); SHA1_STEP (SHA1_F1, A, B, C, D, E, w6_t);
254   w7_t = rotl32 ((w4_t ^ wf_t ^ w9_t ^ w7_t), 1u); SHA1_STEP (SHA1_F1, E, A, B, C, D, w7_t);
255   w8_t = rotl32 ((w5_t ^ w0_t ^ wa_t ^ w8_t), 1u); SHA1_STEP (SHA1_F1, D, E, A, B, C, w8_t);
256   w9_t = rotl32 ((w6_t ^ w1_t ^ wb_t ^ w9_t), 1u); SHA1_STEP (SHA1_F1, C, D, E, A, B, w9_t);
257   wa_t = rotl32 ((w7_t ^ w2_t ^ wc_t ^ wa_t), 1u); SHA1_STEP (SHA1_F1, B, C, D, E, A, wa_t);
258   wb_t = rotl32 ((w8_t ^ w3_t ^ wd_t ^ wb_t), 1u); SHA1_STEP (SHA1_F1, A, B, C, D, E, wb_t);
259   wc_t = rotl32 ((w9_t ^ w4_t ^ we_t ^ wc_t), 1u); SHA1_STEP (SHA1_F1, E, A, B, C, D, wc_t);
260   wd_t = rotl32 ((wa_t ^ w5_t ^ wf_t ^ wd_t), 1u); SHA1_STEP (SHA1_F1, D, E, A, B, C, wd_t);
261   we_t = rotl32 ((wb_t ^ w6_t ^ w0_t ^ we_t), 1u); SHA1_STEP (SHA1_F1, C, D, E, A, B, we_t);
262   wf_t = rotl32 ((wc_t ^ w7_t ^ w1_t ^ wf_t), 1u); SHA1_STEP (SHA1_F1, B, C, D, E, A, wf_t);
263
264   digest[0] += A;
265   digest[1] += B;
266   digest[2] += C;
267   digest[3] += D;
268   digest[4] += E;
269 }
270
271 __kernel void __attribute__((reqd_work_group_size (64, 1, 1))) m09800_m04 (__global pw_t *pws, __global gpu_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global oldoffice34_t *oldoffice34_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 combs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
272 {
273   /**
274    * modifier
275    */
276
277   const u32 lid = get_local_id (0);
278
279   __local RC4_KEY rc4_keys[64];
280
281   __local RC4_KEY *rc4_key = &rc4_keys[lid];
282
283   /**
284    * base
285    */
286
287   const u32 gid = get_global_id (0);
288
289   if (gid >= gid_max) return;
290
291   u32 wordl0[4];
292
293   wordl0[0] = pws[gid].i[ 0];
294   wordl0[1] = pws[gid].i[ 1];
295   wordl0[2] = pws[gid].i[ 2];
296   wordl0[3] = pws[gid].i[ 3];
297
298   u32 wordl1[4];
299
300   wordl1[0] = pws[gid].i[ 4];
301   wordl1[1] = pws[gid].i[ 5];
302   wordl1[2] = pws[gid].i[ 6];
303   wordl1[3] = pws[gid].i[ 7];
304
305   u32 wordl2[4];
306
307   wordl2[0] = 0;
308   wordl2[1] = 0;
309   wordl2[2] = 0;
310   wordl2[3] = 0;
311
312   u32 wordl3[4];
313
314   wordl3[0] = 0;
315   wordl3[1] = 0;
316   wordl3[2] = 0;
317   wordl3[3] = 0;
318
319   const u32 pw_l_len = pws[gid].pw_len;
320
321   if (combs_mode == COMBINATOR_MODE_BASE_RIGHT)
322   {
323     switch_buffer_by_offset (wordl0, wordl1, wordl2, wordl3, combs_buf[0].pw_len);
324   }
325
326   /**
327    * salt
328    */
329
330   u32 salt_buf[4];
331
332   salt_buf[0] = salt_bufs[salt_pos].salt_buf[0];
333   salt_buf[1] = salt_bufs[salt_pos].salt_buf[1];
334   salt_buf[2] = salt_bufs[salt_pos].salt_buf[2];
335   salt_buf[3] = salt_bufs[salt_pos].salt_buf[3];
336
337   const u32 salt_len = 16;
338
339   /**
340    * esalt
341    */
342
343   const u32 version = oldoffice34_bufs[salt_pos].version;
344
345   u32 encryptedVerifier[4];
346
347   encryptedVerifier[0] = oldoffice34_bufs[salt_pos].encryptedVerifier[0];
348   encryptedVerifier[1] = oldoffice34_bufs[salt_pos].encryptedVerifier[1];
349   encryptedVerifier[2] = oldoffice34_bufs[salt_pos].encryptedVerifier[2];
350   encryptedVerifier[3] = oldoffice34_bufs[salt_pos].encryptedVerifier[3];
351
352   /**
353    * loop
354    */
355
356   for (u32 il_pos = 0; il_pos < combs_cnt; il_pos++)
357   {
358     const u32 pw_r_len = combs_buf[il_pos].pw_len;
359
360     const u32 pw_len = pw_l_len + pw_r_len;
361
362     const u32 pw_salt_len = (pw_len * 2) + salt_len;
363
364     u32 wordr0[4];
365
366     wordr0[0] = combs_buf[il_pos].i[0];
367     wordr0[1] = combs_buf[il_pos].i[1];
368     wordr0[2] = combs_buf[il_pos].i[2];
369     wordr0[3] = combs_buf[il_pos].i[3];
370
371     u32 wordr1[4];
372
373     wordr1[0] = combs_buf[il_pos].i[4];
374     wordr1[1] = combs_buf[il_pos].i[5];
375     wordr1[2] = combs_buf[il_pos].i[6];
376     wordr1[3] = combs_buf[il_pos].i[7];
377
378     u32 wordr2[4];
379
380     wordr2[0] = 0;
381     wordr2[1] = 0;
382     wordr2[2] = 0;
383     wordr2[3] = 0;
384
385     u32 wordr3[4];
386
387     wordr3[0] = 0;
388     wordr3[1] = 0;
389     wordr3[2] = 0;
390     wordr3[3] = 0;
391
392     if (combs_mode == COMBINATOR_MODE_BASE_LEFT)
393     {
394       switch_buffer_by_offset (wordr0, wordr1, wordr2, wordr3, pw_l_len);
395     }
396
397     u32 w0[4];
398
399     w0[0] = wordl0[0] | wordr0[0];
400     w0[1] = wordl0[1] | wordr0[1];
401     w0[2] = wordl0[2] | wordr0[2];
402     w0[3] = wordl0[3] | wordr0[3];
403
404     u32 w1[4];
405
406     w1[0] = wordl1[0] | wordr1[0];
407     w1[1] = wordl1[1] | wordr1[1];
408     w1[2] = wordl1[2] | wordr1[2];
409     w1[3] = wordl1[3] | wordr1[3];
410
411     u32 w2[4];
412
413     w2[0] = wordl2[0] | wordr2[0];
414     w2[1] = wordl2[1] | wordr2[1];
415     w2[2] = wordl2[2] | wordr2[2];
416     w2[3] = wordl2[3] | wordr2[3];
417
418     u32 w3[4];
419
420     w3[0] = wordl3[0] | wordr3[0];
421     w3[1] = wordl3[1] | wordr3[1];
422     w3[2] = 0;
423     w3[3] = 0;
424
425     append_0x80_2x4 (w0, w1, pw_len);
426
427     u32 w0_t[4];
428     u32 w1_t[4];
429     u32 w2_t[4];
430     u32 w3_t[4];
431
432     make_unicode (w0, w0_t, w1_t);
433     make_unicode (w1, w2_t, w3_t);
434
435     switch_buffer_by_offset (w0_t, w1_t, w2_t, w3_t, salt_len);
436
437     w0_t[0] = salt_buf[0];
438     w0_t[1] = salt_buf[1];
439     w0_t[2] = salt_buf[2];
440     w0_t[3] = salt_buf[3];
441     w1_t[0] = swap_workaround (w1_t[0]);
442     w1_t[1] = swap_workaround (w1_t[1]);
443     w1_t[2] = swap_workaround (w1_t[2]);
444     w1_t[3] = swap_workaround (w1_t[3]);
445     w2_t[0] = swap_workaround (w2_t[0]);
446     w2_t[1] = swap_workaround (w2_t[1]);
447     w2_t[2] = swap_workaround (w2_t[2]);
448     w2_t[3] = swap_workaround (w2_t[3]);
449     w3_t[0] = swap_workaround (w3_t[0]);
450     w3_t[1] = swap_workaround (w3_t[1]);
451     w3_t[2] = 0;
452     w3_t[3] = pw_salt_len * 8;
453
454     u32 digest[5];
455
456     digest[0] = SHA1M_A;
457     digest[1] = SHA1M_B;
458     digest[2] = SHA1M_C;
459     digest[3] = SHA1M_D;
460     digest[4] = SHA1M_E;
461
462     sha1_transform (w0_t, w1_t, w2_t, w3_t, digest);
463
464     w0_t[0] = digest[0];
465     w0_t[1] = digest[1];
466     w0_t[2] = digest[2];
467     w0_t[3] = digest[3];
468     w1_t[0] = digest[4];
469     w1_t[1] = 0;
470     w1_t[2] = 0x80000000;
471     w1_t[3] = 0;
472     w2_t[0] = 0;
473     w2_t[1] = 0;
474     w2_t[2] = 0;
475     w2_t[3] = 0;
476     w3_t[0] = 0;
477     w3_t[1] = 0;
478     w3_t[2] = 0;
479     w3_t[3] = (20 + 4) * 8;
480
481     digest[0] = SHA1M_A;
482     digest[1] = SHA1M_B;
483     digest[2] = SHA1M_C;
484     digest[3] = SHA1M_D;
485     digest[4] = SHA1M_E;
486
487     sha1_transform (w0_t, w1_t, w2_t, w3_t, digest);
488
489     u32 key[4];
490
491     key[0] = swap_workaround (digest[0]);
492     key[1] = swap_workaround (digest[1]);
493     key[2] = swap_workaround (digest[2]);
494     key[3] = swap_workaround (digest[3]);
495
496     if (version == 3)
497     {
498       key[1] &= 0xff;
499       key[2]  = 0;
500       key[3]  = 0;
501     }
502
503     rc4_init_16 (rc4_key, key);
504
505     u32 out[4];
506
507     u8 j = rc4_next_16 (rc4_key, 0, 0, encryptedVerifier, out);
508
509     w0_t[0] = swap_workaround (out[0]);
510     w0_t[1] = swap_workaround (out[1]);
511     w0_t[2] = swap_workaround (out[2]);
512     w0_t[3] = swap_workaround (out[3]);
513     w1_t[0] = 0x80000000;
514     w1_t[1] = 0;
515     w1_t[2] = 0;
516     w1_t[3] = 0;
517     w2_t[0] = 0;
518     w2_t[1] = 0;
519     w2_t[2] = 0;
520     w2_t[3] = 0;
521     w3_t[0] = 0;
522     w3_t[1] = 0;
523     w3_t[2] = 0;
524     w3_t[3] = 16 * 8;
525
526     digest[0] = SHA1M_A;
527     digest[1] = SHA1M_B;
528     digest[2] = SHA1M_C;
529     digest[3] = SHA1M_D;
530     digest[4] = SHA1M_E;
531
532     sha1_transform (w0_t, w1_t, w2_t, w3_t, digest);
533
534     digest[0] = swap_workaround (digest[0]);
535     digest[1] = swap_workaround (digest[1]);
536     digest[2] = swap_workaround (digest[2]);
537     digest[3] = swap_workaround (digest[3]);
538
539     rc4_next_16 (rc4_key, 16, j, digest, out);
540
541     const u32 r0 = out[0];
542     const u32 r1 = out[1];
543     const u32 r2 = out[2];
544     const u32 r3 = out[3];
545
546     #include COMPARE_M
547   }
548 }
549
550 __kernel void __attribute__((reqd_work_group_size (64, 1, 1))) m09800_m08 (__global pw_t *pws, __global gpu_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global oldoffice34_t *oldoffice34_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 combs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
551 {
552 }
553
554 __kernel void __attribute__((reqd_work_group_size (64, 1, 1))) m09800_m16 (__global pw_t *pws, __global gpu_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global oldoffice34_t *oldoffice34_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 combs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
555 {
556 }
557
558 __kernel void __attribute__((reqd_work_group_size (64, 1, 1))) m09800_s04 (__global pw_t *pws, __global gpu_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global oldoffice34_t *oldoffice34_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 combs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
559 {
560   /**
561    * modifier
562    */
563
564   const u32 lid = get_local_id (0);
565
566   __local RC4_KEY rc4_keys[64];
567
568   __local RC4_KEY *rc4_key = &rc4_keys[lid];
569
570   /**
571    * base
572    */
573
574   const u32 gid = get_global_id (0);
575
576   if (gid >= gid_max) return;
577
578   u32 wordl0[4];
579
580   wordl0[0] = pws[gid].i[ 0];
581   wordl0[1] = pws[gid].i[ 1];
582   wordl0[2] = pws[gid].i[ 2];
583   wordl0[3] = pws[gid].i[ 3];
584
585   u32 wordl1[4];
586
587   wordl1[0] = pws[gid].i[ 4];
588   wordl1[1] = pws[gid].i[ 5];
589   wordl1[2] = pws[gid].i[ 6];
590   wordl1[3] = pws[gid].i[ 7];
591
592   u32 wordl2[4];
593
594   wordl2[0] = 0;
595   wordl2[1] = 0;
596   wordl2[2] = 0;
597   wordl2[3] = 0;
598
599   u32 wordl3[4];
600
601   wordl3[0] = 0;
602   wordl3[1] = 0;
603   wordl3[2] = 0;
604   wordl3[3] = 0;
605
606   const u32 pw_l_len = pws[gid].pw_len;
607
608   if (combs_mode == COMBINATOR_MODE_BASE_RIGHT)
609   {
610     switch_buffer_by_offset (wordl0, wordl1, wordl2, wordl3, combs_buf[0].pw_len);
611   }
612
613   /**
614    * digest
615    */
616
617   const u32 search[4] =
618   {
619     digests_buf[digests_offset].digest_buf[DGST_R0],
620     digests_buf[digests_offset].digest_buf[DGST_R1],
621     digests_buf[digests_offset].digest_buf[DGST_R2],
622     digests_buf[digests_offset].digest_buf[DGST_R3]
623   };
624
625   /**
626    * salt
627    */
628
629   u32 salt_buf[4];
630
631   salt_buf[0] = salt_bufs[salt_pos].salt_buf[0];
632   salt_buf[1] = salt_bufs[salt_pos].salt_buf[1];
633   salt_buf[2] = salt_bufs[salt_pos].salt_buf[2];
634   salt_buf[3] = salt_bufs[salt_pos].salt_buf[3];
635
636   const u32 salt_len = 16;
637
638   /**
639    * esalt
640    */
641
642   const u32 version = oldoffice34_bufs[salt_pos].version;
643
644   u32 encryptedVerifier[4];
645
646   encryptedVerifier[0] = oldoffice34_bufs[salt_pos].encryptedVerifier[0];
647   encryptedVerifier[1] = oldoffice34_bufs[salt_pos].encryptedVerifier[1];
648   encryptedVerifier[2] = oldoffice34_bufs[salt_pos].encryptedVerifier[2];
649   encryptedVerifier[3] = oldoffice34_bufs[salt_pos].encryptedVerifier[3];
650
651   /**
652    * loop
653    */
654
655   for (u32 il_pos = 0; il_pos < combs_cnt; il_pos++)
656   {
657     const u32 pw_r_len = combs_buf[il_pos].pw_len;
658
659     const u32 pw_len = pw_l_len + pw_r_len;
660
661     const u32 pw_salt_len = (pw_len * 2) + salt_len;
662
663     u32 wordr0[4];
664
665     wordr0[0] = combs_buf[il_pos].i[0];
666     wordr0[1] = combs_buf[il_pos].i[1];
667     wordr0[2] = combs_buf[il_pos].i[2];
668     wordr0[3] = combs_buf[il_pos].i[3];
669
670     u32 wordr1[4];
671
672     wordr1[0] = combs_buf[il_pos].i[4];
673     wordr1[1] = combs_buf[il_pos].i[5];
674     wordr1[2] = combs_buf[il_pos].i[6];
675     wordr1[3] = combs_buf[il_pos].i[7];
676
677     u32 wordr2[4];
678
679     wordr2[0] = 0;
680     wordr2[1] = 0;
681     wordr2[2] = 0;
682     wordr2[3] = 0;
683
684     u32 wordr3[4];
685
686     wordr3[0] = 0;
687     wordr3[1] = 0;
688     wordr3[2] = 0;
689     wordr3[3] = 0;
690
691     if (combs_mode == COMBINATOR_MODE_BASE_LEFT)
692     {
693       switch_buffer_by_offset (wordr0, wordr1, wordr2, wordr3, pw_l_len);
694     }
695
696     u32 w0[4];
697
698     w0[0] = wordl0[0] | wordr0[0];
699     w0[1] = wordl0[1] | wordr0[1];
700     w0[2] = wordl0[2] | wordr0[2];
701     w0[3] = wordl0[3] | wordr0[3];
702
703     u32 w1[4];
704
705     w1[0] = wordl1[0] | wordr1[0];
706     w1[1] = wordl1[1] | wordr1[1];
707     w1[2] = wordl1[2] | wordr1[2];
708     w1[3] = wordl1[3] | wordr1[3];
709
710     u32 w2[4];
711
712     w2[0] = wordl2[0] | wordr2[0];
713     w2[1] = wordl2[1] | wordr2[1];
714     w2[2] = wordl2[2] | wordr2[2];
715     w2[3] = wordl2[3] | wordr2[3];
716
717     u32 w3[4];
718
719     w3[0] = wordl3[0] | wordr3[0];
720     w3[1] = wordl3[1] | wordr3[1];
721     w3[2] = 0;
722     w3[3] = 0;
723
724     append_0x80_2x4 (w0, w1, pw_len);
725
726     u32 w0_t[4];
727     u32 w1_t[4];
728     u32 w2_t[4];
729     u32 w3_t[4];
730
731     make_unicode (w0, w0_t, w1_t);
732     make_unicode (w1, w2_t, w3_t);
733
734     switch_buffer_by_offset (w0_t, w1_t, w2_t, w3_t, salt_len);
735
736     w0_t[0] = salt_buf[0];
737     w0_t[1] = salt_buf[1];
738     w0_t[2] = salt_buf[2];
739     w0_t[3] = salt_buf[3];
740     w1_t[0] = swap_workaround (w1_t[0]);
741     w1_t[1] = swap_workaround (w1_t[1]);
742     w1_t[2] = swap_workaround (w1_t[2]);
743     w1_t[3] = swap_workaround (w1_t[3]);
744     w2_t[0] = swap_workaround (w2_t[0]);
745     w2_t[1] = swap_workaround (w2_t[1]);
746     w2_t[2] = swap_workaround (w2_t[2]);
747     w2_t[3] = swap_workaround (w2_t[3]);
748     w3_t[0] = swap_workaround (w3_t[0]);
749     w3_t[1] = swap_workaround (w3_t[1]);
750     w3_t[2] = 0;
751     w3_t[3] = pw_salt_len * 8;
752
753     u32 digest[5];
754
755     digest[0] = SHA1M_A;
756     digest[1] = SHA1M_B;
757     digest[2] = SHA1M_C;
758     digest[3] = SHA1M_D;
759     digest[4] = SHA1M_E;
760
761     sha1_transform (w0_t, w1_t, w2_t, w3_t, digest);
762
763     w0_t[0] = digest[0];
764     w0_t[1] = digest[1];
765     w0_t[2] = digest[2];
766     w0_t[3] = digest[3];
767     w1_t[0] = digest[4];
768     w1_t[1] = 0;
769     w1_t[2] = 0x80000000;
770     w1_t[3] = 0;
771     w2_t[0] = 0;
772     w2_t[1] = 0;
773     w2_t[2] = 0;
774     w2_t[3] = 0;
775     w3_t[0] = 0;
776     w3_t[1] = 0;
777     w3_t[2] = 0;
778     w3_t[3] = (20 + 4) * 8;
779
780     digest[0] = SHA1M_A;
781     digest[1] = SHA1M_B;
782     digest[2] = SHA1M_C;
783     digest[3] = SHA1M_D;
784     digest[4] = SHA1M_E;
785
786     sha1_transform (w0_t, w1_t, w2_t, w3_t, digest);
787
788     u32 key[4];
789
790     key[0] = swap_workaround (digest[0]);
791     key[1] = swap_workaround (digest[1]);
792     key[2] = swap_workaround (digest[2]);
793     key[3] = swap_workaround (digest[3]);
794
795     if (version == 3)
796     {
797       key[1] &= 0xff;
798       key[2]  = 0;
799       key[3]  = 0;
800     }
801
802     rc4_init_16 (rc4_key, key);
803
804     u32 out[4];
805
806     u8 j = rc4_next_16 (rc4_key, 0, 0, encryptedVerifier, out);
807
808     w0_t[0] = swap_workaround (out[0]);
809     w0_t[1] = swap_workaround (out[1]);
810     w0_t[2] = swap_workaround (out[2]);
811     w0_t[3] = swap_workaround (out[3]);
812     w1_t[0] = 0x80000000;
813     w1_t[1] = 0;
814     w1_t[2] = 0;
815     w1_t[3] = 0;
816     w2_t[0] = 0;
817     w2_t[1] = 0;
818     w2_t[2] = 0;
819     w2_t[3] = 0;
820     w3_t[0] = 0;
821     w3_t[1] = 0;
822     w3_t[2] = 0;
823     w3_t[3] = 16 * 8;
824
825     digest[0] = SHA1M_A;
826     digest[1] = SHA1M_B;
827     digest[2] = SHA1M_C;
828     digest[3] = SHA1M_D;
829     digest[4] = SHA1M_E;
830
831     sha1_transform (w0_t, w1_t, w2_t, w3_t, digest);
832
833     digest[0] = swap_workaround (digest[0]);
834     digest[1] = swap_workaround (digest[1]);
835     digest[2] = swap_workaround (digest[2]);
836     digest[3] = swap_workaround (digest[3]);
837
838     rc4_next_16 (rc4_key, 16, j, digest, out);
839
840     const u32 r0 = out[0];
841     const u32 r1 = out[1];
842     const u32 r2 = out[2];
843     const u32 r3 = out[3];
844
845     #include COMPARE_S
846   }
847 }
848
849 __kernel void __attribute__((reqd_work_group_size (64, 1, 1))) m09800_s08 (__global pw_t *pws, __global gpu_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global oldoffice34_t *oldoffice34_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 combs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
850 {
851 }
852
853 __kernel void __attribute__((reqd_work_group_size (64, 1, 1))) m09800_s16 (__global pw_t *pws, __global gpu_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global oldoffice34_t *oldoffice34_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 combs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
854 {
855 }