Zero pws_buf before reuse
[hashcat.git] / OpenCL / m00130_a1.cl
1 /**
2  * Author......: Jens Steube <jens.steube@gmail.com>
3  * License.....: MIT
4  */
5
6 #define _SHA1_
7
8 #define NEW_SIMD_CODE
9
10 #include "include/constants.h"
11 #include "include/kernel_vendor.h"
12
13 #define DGST_R0 3
14 #define DGST_R1 4
15 #define DGST_R2 2
16 #define DGST_R3 1
17
18 #include "include/kernel_functions.c"
19 #include "OpenCL/types_ocl.c"
20 #include "OpenCL/common.c"
21 #include "OpenCL/simd.c"
22
23 // no unicode yet
24
25 __kernel void m00130_m04 (__global pw_t *pws, __global kernel_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 combs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
26 {
27   /**
28    * modifier
29    */
30
31   const u32 lid = get_local_id (0);
32
33   /**
34    * base
35    */
36
37   const u32 gid = get_global_id (0);
38
39   if (gid >= gid_max) return;
40
41   u32 pws0[4] = { 0 };
42   u32 pws1[4] = { 0 };
43
44   pws0[0] = pws[gid].i[0];
45   pws0[1] = pws[gid].i[1];
46   pws0[2] = pws[gid].i[2];
47   pws0[3] = pws[gid].i[3];
48   pws1[0] = pws[gid].i[4];
49   pws1[1] = pws[gid].i[5];
50   pws1[2] = pws[gid].i[6];
51   pws1[3] = pws[gid].i[7];
52
53   const u32 pw_l_len = pws[gid].pw_len;
54
55   /**
56    * salt
57    */
58
59   u32 salt_buf0[4];
60   u32 salt_buf1[4];
61
62   salt_buf0[0] = salt_bufs[salt_pos].salt_buf[0];
63   salt_buf0[1] = salt_bufs[salt_pos].salt_buf[1];
64   salt_buf0[2] = salt_bufs[salt_pos].salt_buf[2];
65   salt_buf0[3] = salt_bufs[salt_pos].salt_buf[3];
66   salt_buf1[0] = salt_bufs[salt_pos].salt_buf[4];
67   salt_buf1[1] = salt_bufs[salt_pos].salt_buf[5];
68   salt_buf1[2] = salt_bufs[salt_pos].salt_buf[6];
69   salt_buf1[3] = salt_bufs[salt_pos].salt_buf[7];
70
71   const u32 salt_len = salt_bufs[salt_pos].salt_len;
72
73   /**
74    * loop
75    */
76
77   for (u32 il_pos = 0; il_pos < combs_cnt; il_pos += VECT_SIZE)
78   {
79     const u32x pw_r_len = pwlenx_create_combt (combs_buf, il_pos);
80
81     const u32x pw_len = pw_l_len + pw_r_len;
82
83     u32x wordr0[4] = { 0 };
84     u32x wordr1[4] = { 0 };
85     u32x wordr2[4] = { 0 };
86     u32x wordr3[4] = { 0 };
87
88     wordr0[0] = ix_create_combt (combs_buf, il_pos, 0);
89     wordr0[1] = ix_create_combt (combs_buf, il_pos, 1);
90     wordr0[2] = ix_create_combt (combs_buf, il_pos, 2);
91     wordr0[3] = ix_create_combt (combs_buf, il_pos, 3);
92     wordr1[0] = ix_create_combt (combs_buf, il_pos, 4);
93     wordr1[1] = ix_create_combt (combs_buf, il_pos, 5);
94     wordr1[2] = ix_create_combt (combs_buf, il_pos, 6);
95     wordr1[3] = ix_create_combt (combs_buf, il_pos, 7);
96
97     if (combs_mode == COMBINATOR_MODE_BASE_LEFT)
98     {
99       switch_buffer_by_offset_le (wordr0, wordr1, wordr2, wordr3, pw_l_len);
100     }
101
102     /**
103      * append salt
104      */
105
106     u32 s0[4];
107
108     s0[0] = salt_buf0[0];
109     s0[1] = salt_buf0[1];
110     s0[2] = salt_buf0[2];
111     s0[3] = salt_buf0[3];
112
113     u32 s1[4];
114
115     s1[0] = salt_buf1[0];
116     s1[1] = salt_buf1[1];
117     s1[2] = salt_buf1[2];
118     s1[3] = salt_buf1[3];
119
120     u32 s2[4];
121
122     s2[0] = 0;
123     s2[1] = 0;
124     s2[2] = 0;
125     s2[3] = 0;
126
127     u32 s3[4];
128
129     s3[0] = 0;
130     s3[1] = 0;
131     s3[2] = 0;
132     s3[3] = 0;
133
134     switch_buffer_by_offset_le (s0, s1, s2, s3, (pw_len * 2));
135
136     const u32 pw_salt_len = (pw_len * 2) + salt_len;
137
138     u32x w0[4];
139     u32x w1[4];
140     u32x w2[4];
141     u32x w3[4];
142
143     w0[0] = wordl0[0] | wordr0[0];
144     w0[1] = wordl0[1] | wordr0[1];
145     w0[2] = wordl0[2] | wordr0[2];
146     w0[3] = wordl0[3] | wordr0[3];
147     w1[0] = wordl1[0] | wordr1[0];
148     w1[1] = wordl1[1] | wordr1[1];
149     w1[2] = wordl1[2] | wordr1[2];
150     w1[3] = wordl1[3] | wordr1[3];
151     w2[0] = 0;
152     w2[1] = 0;
153     w2[2] = 0;
154     w2[3] = 0;
155     w3[0] = 0;
156     w3[1] = 0;
157     w3[2] = 0;
158     w3[3] = 0;
159
160     u32x w0_t[4];
161     u32x w1_t[4];
162     u32x w2_t[4];
163     u32x w3_t[4];
164
165     make_unicode (w0, w0_t, w1_t);
166     make_unicode (w1, w2_t, w3_t);
167
168     w0_t[0] |= s0[0];
169     w0_t[1] |= s0[1];
170     w0_t[2] |= s0[2];
171     w0_t[3] |= s0[3];
172     w1_t[0] |= s1[0];
173     w1_t[1] |= s1[1];
174     w1_t[2] |= s1[2];
175     w1_t[3] |= s1[3];
176     w2_t[0] |= s2[0];
177     w2_t[1] |= s2[1];
178     w2_t[2] |= s2[2];
179     w2_t[3] |= s2[3];
180     w3_t[0] |= s3[0];
181     w3_t[1] |= s3[1];
182     w3_t[2] |= s3[2];
183     w3_t[3] |= s3[3];
184
185     append_0x80_4x4 (w0_t, w1_t, w2_t, w3_t, pw_salt_len);
186
187     w3_t[3] = pw_salt_len * 8;
188
189     /**
190      * sha1
191      */
192
193     w0_t[0] = swap32 (w0_t[0]);
194     w0_t[1] = swap32 (w0_t[1]);
195     w0_t[2] = swap32 (w0_t[2]);
196     w0_t[3] = swap32 (w0_t[3]);
197     w1_t[0] = swap32 (w1_t[0]);
198     w1_t[1] = swap32 (w1_t[1]);
199     w1_t[2] = swap32 (w1_t[2]);
200     w1_t[3] = swap32 (w1_t[3]);
201     w2_t[0] = swap32 (w2_t[0]);
202     w2_t[1] = swap32 (w2_t[1]);
203     w2_t[2] = swap32 (w2_t[2]);
204     w2_t[3] = swap32 (w2_t[3]);
205     w3_t[0] = swap32 (w3_t[0]);
206     w3_t[1] = swap32 (w3_t[1]);
207     //w3_t[2] = swap32 (w3_t[2]);
208     //w3_t[3] = swap32 (w3_t[3]);
209
210     u32x a = SHA1M_A;
211     u32x b = SHA1M_B;
212     u32x c = SHA1M_C;
213     u32x d = SHA1M_D;
214     u32x e = SHA1M_E;
215
216     #undef K
217     #define K SHA1C00
218
219     SHA1_STEP (SHA1_F0o, a, b, c, d, e, w0_t[0]);
220     SHA1_STEP (SHA1_F0o, e, a, b, c, d, w0_t[1]);
221     SHA1_STEP (SHA1_F0o, d, e, a, b, c, w0_t[2]);
222     SHA1_STEP (SHA1_F0o, c, d, e, a, b, w0_t[3]);
223     SHA1_STEP (SHA1_F0o, b, c, d, e, a, w1_t[0]);
224     SHA1_STEP (SHA1_F0o, a, b, c, d, e, w1_t[1]);
225     SHA1_STEP (SHA1_F0o, e, a, b, c, d, w1_t[2]);
226     SHA1_STEP (SHA1_F0o, d, e, a, b, c, w1_t[3]);
227     SHA1_STEP (SHA1_F0o, c, d, e, a, b, w2_t[0]);
228     SHA1_STEP (SHA1_F0o, b, c, d, e, a, w2_t[1]);
229     SHA1_STEP (SHA1_F0o, a, b, c, d, e, w2_t[2]);
230     SHA1_STEP (SHA1_F0o, e, a, b, c, d, w2_t[3]);
231     SHA1_STEP (SHA1_F0o, d, e, a, b, c, w3_t[0]);
232     SHA1_STEP (SHA1_F0o, c, d, e, a, b, w3_t[1]);
233     SHA1_STEP (SHA1_F0o, b, c, d, e, a, w3_t[2]);
234     SHA1_STEP (SHA1_F0o, a, b, c, d, e, w3_t[3]);
235     w0_t[0] = rotl32 ((w3_t[1] ^ w2_t[0] ^ w0_t[2] ^ w0_t[0]), 1u); SHA1_STEP (SHA1_F0o, e, a, b, c, d, w0_t[0]);
236     w0_t[1] = rotl32 ((w3_t[2] ^ w2_t[1] ^ w0_t[3] ^ w0_t[1]), 1u); SHA1_STEP (SHA1_F0o, d, e, a, b, c, w0_t[1]);
237     w0_t[2] = rotl32 ((w3_t[3] ^ w2_t[2] ^ w1_t[0] ^ w0_t[2]), 1u); SHA1_STEP (SHA1_F0o, c, d, e, a, b, w0_t[2]);
238     w0_t[3] = rotl32 ((w0_t[0] ^ w2_t[3] ^ w1_t[1] ^ w0_t[3]), 1u); SHA1_STEP (SHA1_F0o, b, c, d, e, a, w0_t[3]);
239
240     #undef K
241     #define K SHA1C01
242
243     w1_t[0] = rotl32 ((w0_t[1] ^ w3_t[0] ^ w1_t[2] ^ w1_t[0]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w1_t[0]);
244     w1_t[1] = rotl32 ((w0_t[2] ^ w3_t[1] ^ w1_t[3] ^ w1_t[1]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w1_t[1]);
245     w1_t[2] = rotl32 ((w0_t[3] ^ w3_t[2] ^ w2_t[0] ^ w1_t[2]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w1_t[2]);
246     w1_t[3] = rotl32 ((w1_t[0] ^ w3_t[3] ^ w2_t[1] ^ w1_t[3]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w1_t[3]);
247     w2_t[0] = rotl32 ((w1_t[1] ^ w0_t[0] ^ w2_t[2] ^ w2_t[0]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w2_t[0]);
248     w2_t[1] = rotl32 ((w1_t[2] ^ w0_t[1] ^ w2_t[3] ^ w2_t[1]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w2_t[1]);
249     w2_t[2] = rotl32 ((w1_t[3] ^ w0_t[2] ^ w3_t[0] ^ w2_t[2]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w2_t[2]);
250     w2_t[3] = rotl32 ((w2_t[0] ^ w0_t[3] ^ w3_t[1] ^ w2_t[3]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w2_t[3]);
251     w3_t[0] = rotl32 ((w2_t[1] ^ w1_t[0] ^ w3_t[2] ^ w3_t[0]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w3_t[0]);
252     w3_t[1] = rotl32 ((w2_t[2] ^ w1_t[1] ^ w3_t[3] ^ w3_t[1]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w3_t[1]);
253     w3_t[2] = rotl32 ((w2_t[3] ^ w1_t[2] ^ w0_t[0] ^ w3_t[2]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w3_t[2]);
254     w3_t[3] = rotl32 ((w3_t[0] ^ w1_t[3] ^ w0_t[1] ^ w3_t[3]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w3_t[3]);
255     w0_t[0] = rotl32 ((w3_t[1] ^ w2_t[0] ^ w0_t[2] ^ w0_t[0]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w0_t[0]);
256     w0_t[1] = rotl32 ((w3_t[2] ^ w2_t[1] ^ w0_t[3] ^ w0_t[1]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w0_t[1]);
257     w0_t[2] = rotl32 ((w3_t[3] ^ w2_t[2] ^ w1_t[0] ^ w0_t[2]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w0_t[2]);
258     w0_t[3] = rotl32 ((w0_t[0] ^ w2_t[3] ^ w1_t[1] ^ w0_t[3]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w0_t[3]);
259     w1_t[0] = rotl32 ((w0_t[1] ^ w3_t[0] ^ w1_t[2] ^ w1_t[0]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w1_t[0]);
260     w1_t[1] = rotl32 ((w0_t[2] ^ w3_t[1] ^ w1_t[3] ^ w1_t[1]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w1_t[1]);
261     w1_t[2] = rotl32 ((w0_t[3] ^ w3_t[2] ^ w2_t[0] ^ w1_t[2]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w1_t[2]);
262     w1_t[3] = rotl32 ((w1_t[0] ^ w3_t[3] ^ w2_t[1] ^ w1_t[3]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w1_t[3]);
263
264     #undef K
265     #define K SHA1C02
266
267     w2_t[0] = rotl32 ((w1_t[1] ^ w0_t[0] ^ w2_t[2] ^ w2_t[0]), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, w2_t[0]);
268     w2_t[1] = rotl32 ((w1_t[2] ^ w0_t[1] ^ w2_t[3] ^ w2_t[1]), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, w2_t[1]);
269     w2_t[2] = rotl32 ((w1_t[3] ^ w0_t[2] ^ w3_t[0] ^ w2_t[2]), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, w2_t[2]);
270     w2_t[3] = rotl32 ((w2_t[0] ^ w0_t[3] ^ w3_t[1] ^ w2_t[3]), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, w2_t[3]);
271     w3_t[0] = rotl32 ((w2_t[1] ^ w1_t[0] ^ w3_t[2] ^ w3_t[0]), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, w3_t[0]);
272     w3_t[1] = rotl32 ((w2_t[2] ^ w1_t[1] ^ w3_t[3] ^ w3_t[1]), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, w3_t[1]);
273     w3_t[2] = rotl32 ((w2_t[3] ^ w1_t[2] ^ w0_t[0] ^ w3_t[2]), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, w3_t[2]);
274     w3_t[3] = rotl32 ((w3_t[0] ^ w1_t[3] ^ w0_t[1] ^ w3_t[3]), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, w3_t[3]);
275     w0_t[0] = rotl32 ((w3_t[1] ^ w2_t[0] ^ w0_t[2] ^ w0_t[0]), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, w0_t[0]);
276     w0_t[1] = rotl32 ((w3_t[2] ^ w2_t[1] ^ w0_t[3] ^ w0_t[1]), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, w0_t[1]);
277     w0_t[2] = rotl32 ((w3_t[3] ^ w2_t[2] ^ w1_t[0] ^ w0_t[2]), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, w0_t[2]);
278     w0_t[3] = rotl32 ((w0_t[0] ^ w2_t[3] ^ w1_t[1] ^ w0_t[3]), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, w0_t[3]);
279     w1_t[0] = rotl32 ((w0_t[1] ^ w3_t[0] ^ w1_t[2] ^ w1_t[0]), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, w1_t[0]);
280     w1_t[1] = rotl32 ((w0_t[2] ^ w3_t[1] ^ w1_t[3] ^ w1_t[1]), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, w1_t[1]);
281     w1_t[2] = rotl32 ((w0_t[3] ^ w3_t[2] ^ w2_t[0] ^ w1_t[2]), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, w1_t[2]);
282     w1_t[3] = rotl32 ((w1_t[0] ^ w3_t[3] ^ w2_t[1] ^ w1_t[3]), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, w1_t[3]);
283     w2_t[0] = rotl32 ((w1_t[1] ^ w0_t[0] ^ w2_t[2] ^ w2_t[0]), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, w2_t[0]);
284     w2_t[1] = rotl32 ((w1_t[2] ^ w0_t[1] ^ w2_t[3] ^ w2_t[1]), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, w2_t[1]);
285     w2_t[2] = rotl32 ((w1_t[3] ^ w0_t[2] ^ w3_t[0] ^ w2_t[2]), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, w2_t[2]);
286     w2_t[3] = rotl32 ((w2_t[0] ^ w0_t[3] ^ w3_t[1] ^ w2_t[3]), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, w2_t[3]);
287
288     #undef K
289     #define K SHA1C03
290
291     w3_t[0] = rotl32 ((w2_t[1] ^ w1_t[0] ^ w3_t[2] ^ w3_t[0]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w3_t[0]);
292     w3_t[1] = rotl32 ((w2_t[2] ^ w1_t[1] ^ w3_t[3] ^ w3_t[1]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w3_t[1]);
293     w3_t[2] = rotl32 ((w2_t[3] ^ w1_t[2] ^ w0_t[0] ^ w3_t[2]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w3_t[2]);
294     w3_t[3] = rotl32 ((w3_t[0] ^ w1_t[3] ^ w0_t[1] ^ w3_t[3]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w3_t[3]);
295     w0_t[0] = rotl32 ((w3_t[1] ^ w2_t[0] ^ w0_t[2] ^ w0_t[0]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w0_t[0]);
296     w0_t[1] = rotl32 ((w3_t[2] ^ w2_t[1] ^ w0_t[3] ^ w0_t[1]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w0_t[1]);
297     w0_t[2] = rotl32 ((w3_t[3] ^ w2_t[2] ^ w1_t[0] ^ w0_t[2]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w0_t[2]);
298     w0_t[3] = rotl32 ((w0_t[0] ^ w2_t[3] ^ w1_t[1] ^ w0_t[3]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w0_t[3]);
299     w1_t[0] = rotl32 ((w0_t[1] ^ w3_t[0] ^ w1_t[2] ^ w1_t[0]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w1_t[0]);
300     w1_t[1] = rotl32 ((w0_t[2] ^ w3_t[1] ^ w1_t[3] ^ w1_t[1]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w1_t[1]);
301     w1_t[2] = rotl32 ((w0_t[3] ^ w3_t[2] ^ w2_t[0] ^ w1_t[2]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w1_t[2]);
302     w1_t[3] = rotl32 ((w1_t[0] ^ w3_t[3] ^ w2_t[1] ^ w1_t[3]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w1_t[3]);
303     w2_t[0] = rotl32 ((w1_t[1] ^ w0_t[0] ^ w2_t[2] ^ w2_t[0]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w2_t[0]);
304     w2_t[1] = rotl32 ((w1_t[2] ^ w0_t[1] ^ w2_t[3] ^ w2_t[1]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w2_t[1]);
305     w2_t[2] = rotl32 ((w1_t[3] ^ w0_t[2] ^ w3_t[0] ^ w2_t[2]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w2_t[2]);
306     w2_t[3] = rotl32 ((w2_t[0] ^ w0_t[3] ^ w3_t[1] ^ w2_t[3]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w2_t[3]);
307     w3_t[0] = rotl32 ((w2_t[1] ^ w1_t[0] ^ w3_t[2] ^ w3_t[0]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w3_t[0]);
308     w3_t[1] = rotl32 ((w2_t[2] ^ w1_t[1] ^ w3_t[3] ^ w3_t[1]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w3_t[1]);
309     w3_t[2] = rotl32 ((w2_t[3] ^ w1_t[2] ^ w0_t[0] ^ w3_t[2]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w3_t[2]);
310     w3_t[3] = rotl32 ((w3_t[0] ^ w1_t[3] ^ w0_t[1] ^ w3_t[3]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w3_t[3]);
311
312     COMPARE_M_SIMD (d, e, c, b);
313   }
314 }
315
316 __kernel void m00130_m08 (__global pw_t *pws, __global kernel_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 combs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
317 {
318 }
319
320 __kernel void m00130_m16 (__global pw_t *pws, __global kernel_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 combs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
321 {
322 }
323
324 __kernel void m00130_s04 (__global pw_t *pws, __global kernel_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 combs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
325 {
326   /**
327    * modifier
328    */
329
330   const u32 lid = get_local_id (0);
331
332   /**
333    * base
334    */
335
336   const u32 gid = get_global_id (0);
337
338   if (gid >= gid_max) return;
339
340   u32 pws0[4] = { 0 };
341   u32 pws1[4] = { 0 };
342
343   pws0[0] = pws[gid].i[0];
344   pws0[1] = pws[gid].i[1];
345   pws0[2] = pws[gid].i[2];
346   pws0[3] = pws[gid].i[3];
347   pws1[0] = pws[gid].i[4];
348   pws1[1] = pws[gid].i[5];
349   pws1[2] = pws[gid].i[6];
350   pws1[3] = pws[gid].i[7];
351
352   const u32 pw_l_len = pws[gid].pw_len;
353
354   /**
355    * salt
356    */
357
358   u32 salt_buf0[4];
359   u32 salt_buf1[4];
360
361   salt_buf0[0] = salt_bufs[salt_pos].salt_buf[0];
362   salt_buf0[1] = salt_bufs[salt_pos].salt_buf[1];
363   salt_buf0[2] = salt_bufs[salt_pos].salt_buf[2];
364   salt_buf0[3] = salt_bufs[salt_pos].salt_buf[3];
365   salt_buf1[0] = salt_bufs[salt_pos].salt_buf[4];
366   salt_buf1[1] = salt_bufs[salt_pos].salt_buf[5];
367   salt_buf1[2] = salt_bufs[salt_pos].salt_buf[6];
368   salt_buf1[3] = salt_bufs[salt_pos].salt_buf[7];
369
370   const u32 salt_len = salt_bufs[salt_pos].salt_len;
371
372   /**
373    * digest
374    */
375
376   const u32 search[4] =
377   {
378     digests_buf[digests_offset].digest_buf[DGST_R0],
379     digests_buf[digests_offset].digest_buf[DGST_R1],
380     digests_buf[digests_offset].digest_buf[DGST_R2],
381     digests_buf[digests_offset].digest_buf[DGST_R3]
382   };
383
384   /**
385    * reverse
386    */
387
388   const u32 e_rev = rotl32_S (search[1], 2u);
389
390   /**
391    * loop
392    */
393
394   for (u32 il_pos = 0; il_pos < combs_cnt; il_pos += VECT_SIZE)
395   {
396     const u32x pw_r_len = pwlenx_create_combt (combs_buf, il_pos);
397
398     const u32x pw_len = pw_l_len + pw_r_len;
399
400     u32x wordr0[4] = { 0 };
401     u32x wordr1[4] = { 0 };
402     u32x wordr2[4] = { 0 };
403     u32x wordr3[4] = { 0 };
404
405     wordr0[0] = ix_create_combt (combs_buf, il_pos, 0);
406     wordr0[1] = ix_create_combt (combs_buf, il_pos, 1);
407     wordr0[2] = ix_create_combt (combs_buf, il_pos, 2);
408     wordr0[3] = ix_create_combt (combs_buf, il_pos, 3);
409     wordr1[0] = ix_create_combt (combs_buf, il_pos, 4);
410     wordr1[1] = ix_create_combt (combs_buf, il_pos, 5);
411     wordr1[2] = ix_create_combt (combs_buf, il_pos, 6);
412     wordr1[3] = ix_create_combt (combs_buf, il_pos, 7);
413
414     if (combs_mode == COMBINATOR_MODE_BASE_LEFT)
415     {
416       switch_buffer_by_offset_le (wordr0, wordr1, wordr2, wordr3, pw_l_len);
417     }
418
419     /**
420      * append salt
421      */
422
423     u32 s0[4];
424
425     s0[0] = salt_buf0[0];
426     s0[1] = salt_buf0[1];
427     s0[2] = salt_buf0[2];
428     s0[3] = salt_buf0[3];
429
430     u32 s1[4];
431
432     s1[0] = salt_buf1[0];
433     s1[1] = salt_buf1[1];
434     s1[2] = salt_buf1[2];
435     s1[3] = salt_buf1[3];
436
437     u32 s2[4];
438
439     s2[0] = 0;
440     s2[1] = 0;
441     s2[2] = 0;
442     s2[3] = 0;
443
444     u32 s3[4];
445
446     s3[0] = 0;
447     s3[1] = 0;
448     s3[2] = 0;
449     s3[3] = 0;
450
451     switch_buffer_by_offset_le (s0, s1, s2, s3, (pw_len * 2));
452
453     const u32 pw_salt_len = (pw_len * 2) + salt_len;
454
455     u32x w0[4];
456     u32x w1[4];
457     u32x w2[4];
458     u32x w3[4];
459
460     w0[0] = wordl0[0] | wordr0[0];
461     w0[1] = wordl0[1] | wordr0[1];
462     w0[2] = wordl0[2] | wordr0[2];
463     w0[3] = wordl0[3] | wordr0[3];
464     w1[0] = wordl1[0] | wordr1[0];
465     w1[1] = wordl1[1] | wordr1[1];
466     w1[2] = wordl1[2] | wordr1[2];
467     w1[3] = wordl1[3] | wordr1[3];
468     w2[0] = 0;
469     w2[1] = 0;
470     w2[2] = 0;
471     w2[3] = 0;
472     w3[0] = 0;
473     w3[1] = 0;
474     w3[2] = 0;
475     w3[3] = 0;
476
477     u32x w0_t[4];
478     u32x w1_t[4];
479     u32x w2_t[4];
480     u32x w3_t[4];
481
482     make_unicode (w0, w0_t, w1_t);
483     make_unicode (w1, w2_t, w3_t);
484
485     w0_t[0] |= s0[0];
486     w0_t[1] |= s0[1];
487     w0_t[2] |= s0[2];
488     w0_t[3] |= s0[3];
489     w1_t[0] |= s1[0];
490     w1_t[1] |= s1[1];
491     w1_t[2] |= s1[2];
492     w1_t[3] |= s1[3];
493     w2_t[0] |= s2[0];
494     w2_t[1] |= s2[1];
495     w2_t[2] |= s2[2];
496     w2_t[3] |= s2[3];
497     w3_t[0] |= s3[0];
498     w3_t[1] |= s3[1];
499     w3_t[2] |= s3[2];
500     w3_t[3] |= s3[3];
501
502     append_0x80_4x4 (w0_t, w1_t, w2_t, w3_t, pw_salt_len);
503
504     w3_t[3] = pw_salt_len * 8;
505
506     /**
507      * sha1
508      */
509
510     w0_t[0] = swap32 (w0_t[0]);
511     w0_t[1] = swap32 (w0_t[1]);
512     w0_t[2] = swap32 (w0_t[2]);
513     w0_t[3] = swap32 (w0_t[3]);
514     w1_t[0] = swap32 (w1_t[0]);
515     w1_t[1] = swap32 (w1_t[1]);
516     w1_t[2] = swap32 (w1_t[2]);
517     w1_t[3] = swap32 (w1_t[3]);
518     w2_t[0] = swap32 (w2_t[0]);
519     w2_t[1] = swap32 (w2_t[1]);
520     w2_t[2] = swap32 (w2_t[2]);
521     w2_t[3] = swap32 (w2_t[3]);
522     w3_t[0] = swap32 (w3_t[0]);
523     w3_t[1] = swap32 (w3_t[1]);
524     //w3_t[2] = swap32 (w3_t[2]);
525     //w3_t[3] = swap32 (w3_t[3]);
526
527     u32x a = SHA1M_A;
528     u32x b = SHA1M_B;
529     u32x c = SHA1M_C;
530     u32x d = SHA1M_D;
531     u32x e = SHA1M_E;
532
533     #undef K
534     #define K SHA1C00
535
536     SHA1_STEP (SHA1_F0o, a, b, c, d, e, w0_t[0]);
537     SHA1_STEP (SHA1_F0o, e, a, b, c, d, w0_t[1]);
538     SHA1_STEP (SHA1_F0o, d, e, a, b, c, w0_t[2]);
539     SHA1_STEP (SHA1_F0o, c, d, e, a, b, w0_t[3]);
540     SHA1_STEP (SHA1_F0o, b, c, d, e, a, w1_t[0]);
541     SHA1_STEP (SHA1_F0o, a, b, c, d, e, w1_t[1]);
542     SHA1_STEP (SHA1_F0o, e, a, b, c, d, w1_t[2]);
543     SHA1_STEP (SHA1_F0o, d, e, a, b, c, w1_t[3]);
544     SHA1_STEP (SHA1_F0o, c, d, e, a, b, w2_t[0]);
545     SHA1_STEP (SHA1_F0o, b, c, d, e, a, w2_t[1]);
546     SHA1_STEP (SHA1_F0o, a, b, c, d, e, w2_t[2]);
547     SHA1_STEP (SHA1_F0o, e, a, b, c, d, w2_t[3]);
548     SHA1_STEP (SHA1_F0o, d, e, a, b, c, w3_t[0]);
549     SHA1_STEP (SHA1_F0o, c, d, e, a, b, w3_t[1]);
550     SHA1_STEP (SHA1_F0o, b, c, d, e, a, w3_t[2]);
551     SHA1_STEP (SHA1_F0o, a, b, c, d, e, w3_t[3]);
552     w0_t[0] = rotl32 ((w3_t[1] ^ w2_t[0] ^ w0_t[2] ^ w0_t[0]), 1u); SHA1_STEP (SHA1_F0o, e, a, b, c, d, w0_t[0]);
553     w0_t[1] = rotl32 ((w3_t[2] ^ w2_t[1] ^ w0_t[3] ^ w0_t[1]), 1u); SHA1_STEP (SHA1_F0o, d, e, a, b, c, w0_t[1]);
554     w0_t[2] = rotl32 ((w3_t[3] ^ w2_t[2] ^ w1_t[0] ^ w0_t[2]), 1u); SHA1_STEP (SHA1_F0o, c, d, e, a, b, w0_t[2]);
555     w0_t[3] = rotl32 ((w0_t[0] ^ w2_t[3] ^ w1_t[1] ^ w0_t[3]), 1u); SHA1_STEP (SHA1_F0o, b, c, d, e, a, w0_t[3]);
556
557     #undef K
558     #define K SHA1C01
559
560     w1_t[0] = rotl32 ((w0_t[1] ^ w3_t[0] ^ w1_t[2] ^ w1_t[0]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w1_t[0]);
561     w1_t[1] = rotl32 ((w0_t[2] ^ w3_t[1] ^ w1_t[3] ^ w1_t[1]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w1_t[1]);
562     w1_t[2] = rotl32 ((w0_t[3] ^ w3_t[2] ^ w2_t[0] ^ w1_t[2]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w1_t[2]);
563     w1_t[3] = rotl32 ((w1_t[0] ^ w3_t[3] ^ w2_t[1] ^ w1_t[3]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w1_t[3]);
564     w2_t[0] = rotl32 ((w1_t[1] ^ w0_t[0] ^ w2_t[2] ^ w2_t[0]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w2_t[0]);
565     w2_t[1] = rotl32 ((w1_t[2] ^ w0_t[1] ^ w2_t[3] ^ w2_t[1]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w2_t[1]);
566     w2_t[2] = rotl32 ((w1_t[3] ^ w0_t[2] ^ w3_t[0] ^ w2_t[2]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w2_t[2]);
567     w2_t[3] = rotl32 ((w2_t[0] ^ w0_t[3] ^ w3_t[1] ^ w2_t[3]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w2_t[3]);
568     w3_t[0] = rotl32 ((w2_t[1] ^ w1_t[0] ^ w3_t[2] ^ w3_t[0]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w3_t[0]);
569     w3_t[1] = rotl32 ((w2_t[2] ^ w1_t[1] ^ w3_t[3] ^ w3_t[1]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w3_t[1]);
570     w3_t[2] = rotl32 ((w2_t[3] ^ w1_t[2] ^ w0_t[0] ^ w3_t[2]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w3_t[2]);
571     w3_t[3] = rotl32 ((w3_t[0] ^ w1_t[3] ^ w0_t[1] ^ w3_t[3]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w3_t[3]);
572     w0_t[0] = rotl32 ((w3_t[1] ^ w2_t[0] ^ w0_t[2] ^ w0_t[0]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w0_t[0]);
573     w0_t[1] = rotl32 ((w3_t[2] ^ w2_t[1] ^ w0_t[3] ^ w0_t[1]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w0_t[1]);
574     w0_t[2] = rotl32 ((w3_t[3] ^ w2_t[2] ^ w1_t[0] ^ w0_t[2]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w0_t[2]);
575     w0_t[3] = rotl32 ((w0_t[0] ^ w2_t[3] ^ w1_t[1] ^ w0_t[3]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w0_t[3]);
576     w1_t[0] = rotl32 ((w0_t[1] ^ w3_t[0] ^ w1_t[2] ^ w1_t[0]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w1_t[0]);
577     w1_t[1] = rotl32 ((w0_t[2] ^ w3_t[1] ^ w1_t[3] ^ w1_t[1]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w1_t[1]);
578     w1_t[2] = rotl32 ((w0_t[3] ^ w3_t[2] ^ w2_t[0] ^ w1_t[2]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w1_t[2]);
579     w1_t[3] = rotl32 ((w1_t[0] ^ w3_t[3] ^ w2_t[1] ^ w1_t[3]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w1_t[3]);
580
581     #undef K
582     #define K SHA1C02
583
584     w2_t[0] = rotl32 ((w1_t[1] ^ w0_t[0] ^ w2_t[2] ^ w2_t[0]), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, w2_t[0]);
585     w2_t[1] = rotl32 ((w1_t[2] ^ w0_t[1] ^ w2_t[3] ^ w2_t[1]), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, w2_t[1]);
586     w2_t[2] = rotl32 ((w1_t[3] ^ w0_t[2] ^ w3_t[0] ^ w2_t[2]), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, w2_t[2]);
587     w2_t[3] = rotl32 ((w2_t[0] ^ w0_t[3] ^ w3_t[1] ^ w2_t[3]), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, w2_t[3]);
588     w3_t[0] = rotl32 ((w2_t[1] ^ w1_t[0] ^ w3_t[2] ^ w3_t[0]), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, w3_t[0]);
589     w3_t[1] = rotl32 ((w2_t[2] ^ w1_t[1] ^ w3_t[3] ^ w3_t[1]), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, w3_t[1]);
590     w3_t[2] = rotl32 ((w2_t[3] ^ w1_t[2] ^ w0_t[0] ^ w3_t[2]), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, w3_t[2]);
591     w3_t[3] = rotl32 ((w3_t[0] ^ w1_t[3] ^ w0_t[1] ^ w3_t[3]), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, w3_t[3]);
592     w0_t[0] = rotl32 ((w3_t[1] ^ w2_t[0] ^ w0_t[2] ^ w0_t[0]), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, w0_t[0]);
593     w0_t[1] = rotl32 ((w3_t[2] ^ w2_t[1] ^ w0_t[3] ^ w0_t[1]), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, w0_t[1]);
594     w0_t[2] = rotl32 ((w3_t[3] ^ w2_t[2] ^ w1_t[0] ^ w0_t[2]), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, w0_t[2]);
595     w0_t[3] = rotl32 ((w0_t[0] ^ w2_t[3] ^ w1_t[1] ^ w0_t[3]), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, w0_t[3]);
596     w1_t[0] = rotl32 ((w0_t[1] ^ w3_t[0] ^ w1_t[2] ^ w1_t[0]), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, w1_t[0]);
597     w1_t[1] = rotl32 ((w0_t[2] ^ w3_t[1] ^ w1_t[3] ^ w1_t[1]), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, w1_t[1]);
598     w1_t[2] = rotl32 ((w0_t[3] ^ w3_t[2] ^ w2_t[0] ^ w1_t[2]), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, w1_t[2]);
599     w1_t[3] = rotl32 ((w1_t[0] ^ w3_t[3] ^ w2_t[1] ^ w1_t[3]), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, w1_t[3]);
600     w2_t[0] = rotl32 ((w1_t[1] ^ w0_t[0] ^ w2_t[2] ^ w2_t[0]), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, w2_t[0]);
601     w2_t[1] = rotl32 ((w1_t[2] ^ w0_t[1] ^ w2_t[3] ^ w2_t[1]), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, w2_t[1]);
602     w2_t[2] = rotl32 ((w1_t[3] ^ w0_t[2] ^ w3_t[0] ^ w2_t[2]), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, w2_t[2]);
603     w2_t[3] = rotl32 ((w2_t[0] ^ w0_t[3] ^ w3_t[1] ^ w2_t[3]), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, w2_t[3]);
604
605     #undef K
606     #define K SHA1C03
607
608     w3_t[0] = rotl32 ((w2_t[1] ^ w1_t[0] ^ w3_t[2] ^ w3_t[0]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w3_t[0]);
609     w3_t[1] = rotl32 ((w2_t[2] ^ w1_t[1] ^ w3_t[3] ^ w3_t[1]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w3_t[1]);
610     w3_t[2] = rotl32 ((w2_t[3] ^ w1_t[2] ^ w0_t[0] ^ w3_t[2]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w3_t[2]);
611     w3_t[3] = rotl32 ((w3_t[0] ^ w1_t[3] ^ w0_t[1] ^ w3_t[3]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w3_t[3]);
612     w0_t[0] = rotl32 ((w3_t[1] ^ w2_t[0] ^ w0_t[2] ^ w0_t[0]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w0_t[0]);
613     w0_t[1] = rotl32 ((w3_t[2] ^ w2_t[1] ^ w0_t[3] ^ w0_t[1]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w0_t[1]);
614     w0_t[2] = rotl32 ((w3_t[3] ^ w2_t[2] ^ w1_t[0] ^ w0_t[2]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w0_t[2]);
615     w0_t[3] = rotl32 ((w0_t[0] ^ w2_t[3] ^ w1_t[1] ^ w0_t[3]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w0_t[3]);
616     w1_t[0] = rotl32 ((w0_t[1] ^ w3_t[0] ^ w1_t[2] ^ w1_t[0]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w1_t[0]);
617     w1_t[1] = rotl32 ((w0_t[2] ^ w3_t[1] ^ w1_t[3] ^ w1_t[1]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w1_t[1]);
618     w1_t[2] = rotl32 ((w0_t[3] ^ w3_t[2] ^ w2_t[0] ^ w1_t[2]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w1_t[2]);
619     w1_t[3] = rotl32 ((w1_t[0] ^ w3_t[3] ^ w2_t[1] ^ w1_t[3]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w1_t[3]);
620     w2_t[0] = rotl32 ((w1_t[1] ^ w0_t[0] ^ w2_t[2] ^ w2_t[0]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w2_t[0]);
621     w2_t[1] = rotl32 ((w1_t[2] ^ w0_t[1] ^ w2_t[3] ^ w2_t[1]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w2_t[1]);
622     w2_t[2] = rotl32 ((w1_t[3] ^ w0_t[2] ^ w3_t[0] ^ w2_t[2]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w2_t[2]);
623     w2_t[3] = rotl32 ((w2_t[0] ^ w0_t[3] ^ w3_t[1] ^ w2_t[3]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w2_t[3]);
624     w3_t[0] = rotl32 ((w2_t[1] ^ w1_t[0] ^ w3_t[2] ^ w3_t[0]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w3_t[0]);
625
626     if (MATCHES_NONE_VS (e, e_rev)) continue;
627
628     w3_t[1] = rotl32 ((w2_t[2] ^ w1_t[1] ^ w3_t[3] ^ w3_t[1]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w3_t[1]);
629     w3_t[2] = rotl32 ((w2_t[3] ^ w1_t[2] ^ w0_t[0] ^ w3_t[2]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w3_t[2]);
630     w3_t[3] = rotl32 ((w3_t[0] ^ w1_t[3] ^ w0_t[1] ^ w3_t[3]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w3_t[3]);
631
632     COMPARE_S_SIMD (d, e, c, b);
633   }
634 }
635
636 __kernel void m00130_s08 (__global pw_t *pws, __global kernel_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 combs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
637 {
638 }
639
640 __kernel void m00130_s16 (__global pw_t *pws, __global kernel_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 combs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
641 {
642 }