Merge branch 'master' into GetRidOfCUDA
[hashcat.git] / OpenCL / m00140_a1.cl
1 /**
2  * Author......: Jens Steube <jens.steube@gmail.com>
3  * License.....: MIT
4  */
5
6 #define _SHA1_
7
8 #include "include/constants.h"
9 #include "include/kernel_vendor.h"
10
11 #define DGST_R0 3
12 #define DGST_R1 4
13 #define DGST_R2 2
14 #define DGST_R3 1
15
16 #include "include/kernel_functions.c"
17 #include "types_ocl.c"
18 #include "common.c"
19
20 #define COMPARE_S "check_single_comp4.c"
21 #define COMPARE_M "check_multi_comp4.c"
22
23 // no unicode yet
24
25 __kernel void __attribute__((reqd_work_group_size (64, 1, 1))) m00140_m04 (__global pw_t *pws, __global gpu_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 combs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
26 {
27   /**
28    * modifier
29    */
30
31   const u32 lid = get_local_id (0);
32
33   /**
34    * base
35    */
36
37   const u32 gid = get_global_id (0);
38
39   if (gid >= gid_max) return;
40
41   u32 wordl0[4];
42
43   wordl0[0] = pws[gid].i[ 0];
44   wordl0[1] = pws[gid].i[ 1];
45   wordl0[2] = pws[gid].i[ 2];
46   wordl0[3] = pws[gid].i[ 3];
47
48   u32 wordl1[4];
49
50   wordl1[0] = pws[gid].i[ 4];
51   wordl1[1] = pws[gid].i[ 5];
52   wordl1[2] = pws[gid].i[ 6];
53   wordl1[3] = pws[gid].i[ 7];
54
55   u32 wordl2[4];
56
57   wordl2[0] = 0;
58   wordl2[1] = 0;
59   wordl2[2] = 0;
60   wordl2[3] = 0;
61
62   u32 wordl3[4];
63
64   wordl3[0] = 0;
65   wordl3[1] = 0;
66   wordl3[2] = 0;
67   wordl3[3] = 0;
68
69   const u32 pw_l_len = pws[gid].pw_len;
70
71   if (combs_mode == COMBINATOR_MODE_BASE_RIGHT)
72   {
73     switch_buffer_by_offset (wordl0, wordl1, wordl2, wordl3, combs_buf[0].pw_len);
74   }
75
76   /**
77    * salt
78    */
79
80   u32 salt_buf0[4];
81
82   salt_buf0[0] = salt_bufs[salt_pos].salt_buf[0];
83   salt_buf0[1] = salt_bufs[salt_pos].salt_buf[1];
84   salt_buf0[2] = salt_bufs[salt_pos].salt_buf[2];
85   salt_buf0[3] = salt_bufs[salt_pos].salt_buf[3];
86
87   u32 salt_buf1[4];
88
89   salt_buf1[0] = salt_bufs[salt_pos].salt_buf[4];
90   salt_buf1[1] = salt_bufs[salt_pos].salt_buf[5];
91   salt_buf1[2] = salt_bufs[salt_pos].salt_buf[6];
92   salt_buf1[3] = salt_bufs[salt_pos].salt_buf[7];
93
94   const u32 salt_len = salt_bufs[salt_pos].salt_len;
95
96   /**
97    * loop
98    */
99
100   for (u32 il_pos = 0; il_pos < combs_cnt; il_pos++)
101   {
102     const u32 pw_r_len = combs_buf[il_pos].pw_len;
103
104     const u32 pw_len = pw_l_len + pw_r_len;
105
106     u32 wordr0[4];
107
108     wordr0[0] = combs_buf[il_pos].i[0];
109     wordr0[1] = combs_buf[il_pos].i[1];
110     wordr0[2] = combs_buf[il_pos].i[2];
111     wordr0[3] = combs_buf[il_pos].i[3];
112
113     u32 wordr1[4];
114
115     wordr1[0] = combs_buf[il_pos].i[4];
116     wordr1[1] = combs_buf[il_pos].i[5];
117     wordr1[2] = combs_buf[il_pos].i[6];
118     wordr1[3] = combs_buf[il_pos].i[7];
119
120     u32 wordr2[4];
121
122     wordr2[0] = 0;
123     wordr2[1] = 0;
124     wordr2[2] = 0;
125     wordr2[3] = 0;
126
127     u32 wordr3[4];
128
129     wordr3[0] = 0;
130     wordr3[1] = 0;
131     wordr3[2] = 0;
132     wordr3[3] = 0;
133
134     if (combs_mode == COMBINATOR_MODE_BASE_LEFT)
135     {
136       switch_buffer_by_offset (wordr0, wordr1, wordr2, wordr3, pw_l_len);
137     }
138
139     /**
140      * prepend salt
141      */
142
143     const u32 pw_salt_len = (pw_len * 2) + salt_len;
144
145     u32 w0[4];
146     u32 w1[4];
147     u32 w2[4];
148     u32 w3[4];
149
150     w0[0] = wordl0[0] | wordr0[0];
151     w0[1] = wordl0[1] | wordr0[1];
152     w0[2] = wordl0[2] | wordr0[2];
153     w0[3] = wordl0[3] | wordr0[3];
154     w1[0] = wordl1[0] | wordr1[0];
155     w1[1] = wordl1[1] | wordr1[1];
156     w1[2] = wordl1[2] | wordr1[2];
157     w1[3] = wordl1[3] | wordr1[3];
158     w2[0] = 0;
159     w2[1] = 0;
160     w2[2] = 0;
161     w2[3] = 0;
162     w3[0] = 0;
163     w3[1] = 0;
164     w3[2] = 0;
165     w3[3] = 0;
166
167     u32 w0_t[4];
168     u32 w1_t[4];
169     u32 w2_t[4];
170     u32 w3_t[4];
171
172     make_unicode (w0, w0_t, w1_t);
173     make_unicode (w1, w2_t, w3_t);
174
175     switch_buffer_by_offset (w0_t, w1_t, w2_t, w3_t, salt_len);
176
177     w0_t[0] |= salt_buf0[0];
178     w0_t[1] |= salt_buf0[1];
179     w0_t[2] |= salt_buf0[2];
180     w0_t[3] |= salt_buf0[3];
181     w1_t[0] |= salt_buf1[0];
182     w1_t[1] |= salt_buf1[1];
183     w1_t[2] |= salt_buf1[2];
184     w1_t[3] |= salt_buf1[3];
185
186     append_0x80_4x4 (w0_t, w1_t, w2_t, w3_t, pw_salt_len);
187
188     w3_t[3] = pw_salt_len * 8;
189
190     /**
191      * sha1
192      */
193
194     w0_t[0] = swap32 (w0_t[0]);
195     w0_t[1] = swap32 (w0_t[1]);
196     w0_t[2] = swap32 (w0_t[2]);
197     w0_t[3] = swap32 (w0_t[3]);
198     w1_t[0] = swap32 (w1_t[0]);
199     w1_t[1] = swap32 (w1_t[1]);
200     w1_t[2] = swap32 (w1_t[2]);
201     w1_t[3] = swap32 (w1_t[3]);
202     w2_t[0] = swap32 (w2_t[0]);
203     w2_t[1] = swap32 (w2_t[1]);
204     w2_t[2] = swap32 (w2_t[2]);
205     w2_t[3] = swap32 (w2_t[3]);
206     w3_t[0] = swap32 (w3_t[0]);
207     w3_t[1] = swap32 (w3_t[1]);
208     //w3_t[2] = swap32 (w3_t[2]);
209     //w3_t[3] = swap32 (w3_t[3]);
210
211     u32 a = SHA1M_A;
212     u32 b = SHA1M_B;
213     u32 c = SHA1M_C;
214     u32 d = SHA1M_D;
215     u32 e = SHA1M_E;
216
217     #undef K
218     #define K SHA1C00
219
220     SHA1_STEP (SHA1_F0o, a, b, c, d, e, w0_t[0]);
221     SHA1_STEP (SHA1_F0o, e, a, b, c, d, w0_t[1]);
222     SHA1_STEP (SHA1_F0o, d, e, a, b, c, w0_t[2]);
223     SHA1_STEP (SHA1_F0o, c, d, e, a, b, w0_t[3]);
224     SHA1_STEP (SHA1_F0o, b, c, d, e, a, w1_t[0]);
225     SHA1_STEP (SHA1_F0o, a, b, c, d, e, w1_t[1]);
226     SHA1_STEP (SHA1_F0o, e, a, b, c, d, w1_t[2]);
227     SHA1_STEP (SHA1_F0o, d, e, a, b, c, w1_t[3]);
228     SHA1_STEP (SHA1_F0o, c, d, e, a, b, w2_t[0]);
229     SHA1_STEP (SHA1_F0o, b, c, d, e, a, w2_t[1]);
230     SHA1_STEP (SHA1_F0o, a, b, c, d, e, w2_t[2]);
231     SHA1_STEP (SHA1_F0o, e, a, b, c, d, w2_t[3]);
232     SHA1_STEP (SHA1_F0o, d, e, a, b, c, w3_t[0]);
233     SHA1_STEP (SHA1_F0o, c, d, e, a, b, w3_t[1]);
234     SHA1_STEP (SHA1_F0o, b, c, d, e, a, w3_t[2]);
235     SHA1_STEP (SHA1_F0o, a, b, c, d, e, w3_t[3]);
236     w0_t[0] = rotl32 ((w3_t[1] ^ w2_t[0] ^ w0_t[2] ^ w0_t[0]), 1u); SHA1_STEP (SHA1_F0o, e, a, b, c, d, w0_t[0]);
237     w0_t[1] = rotl32 ((w3_t[2] ^ w2_t[1] ^ w0_t[3] ^ w0_t[1]), 1u); SHA1_STEP (SHA1_F0o, d, e, a, b, c, w0_t[1]);
238     w0_t[2] = rotl32 ((w3_t[3] ^ w2_t[2] ^ w1_t[0] ^ w0_t[2]), 1u); SHA1_STEP (SHA1_F0o, c, d, e, a, b, w0_t[2]);
239     w0_t[3] = rotl32 ((w0_t[0] ^ w2_t[3] ^ w1_t[1] ^ w0_t[3]), 1u); SHA1_STEP (SHA1_F0o, b, c, d, e, a, w0_t[3]);
240
241     #undef K
242     #define K SHA1C01
243
244     w1_t[0] = rotl32 ((w0_t[1] ^ w3_t[0] ^ w1_t[2] ^ w1_t[0]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w1_t[0]);
245     w1_t[1] = rotl32 ((w0_t[2] ^ w3_t[1] ^ w1_t[3] ^ w1_t[1]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w1_t[1]);
246     w1_t[2] = rotl32 ((w0_t[3] ^ w3_t[2] ^ w2_t[0] ^ w1_t[2]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w1_t[2]);
247     w1_t[3] = rotl32 ((w1_t[0] ^ w3_t[3] ^ w2_t[1] ^ w1_t[3]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w1_t[3]);
248     w2_t[0] = rotl32 ((w1_t[1] ^ w0_t[0] ^ w2_t[2] ^ w2_t[0]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w2_t[0]);
249     w2_t[1] = rotl32 ((w1_t[2] ^ w0_t[1] ^ w2_t[3] ^ w2_t[1]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w2_t[1]);
250     w2_t[2] = rotl32 ((w1_t[3] ^ w0_t[2] ^ w3_t[0] ^ w2_t[2]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w2_t[2]);
251     w2_t[3] = rotl32 ((w2_t[0] ^ w0_t[3] ^ w3_t[1] ^ w2_t[3]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w2_t[3]);
252     w3_t[0] = rotl32 ((w2_t[1] ^ w1_t[0] ^ w3_t[2] ^ w3_t[0]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w3_t[0]);
253     w3_t[1] = rotl32 ((w2_t[2] ^ w1_t[1] ^ w3_t[3] ^ w3_t[1]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w3_t[1]);
254     w3_t[2] = rotl32 ((w2_t[3] ^ w1_t[2] ^ w0_t[0] ^ w3_t[2]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w3_t[2]);
255     w3_t[3] = rotl32 ((w3_t[0] ^ w1_t[3] ^ w0_t[1] ^ w3_t[3]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w3_t[3]);
256     w0_t[0] = rotl32 ((w3_t[1] ^ w2_t[0] ^ w0_t[2] ^ w0_t[0]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w0_t[0]);
257     w0_t[1] = rotl32 ((w3_t[2] ^ w2_t[1] ^ w0_t[3] ^ w0_t[1]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w0_t[1]);
258     w0_t[2] = rotl32 ((w3_t[3] ^ w2_t[2] ^ w1_t[0] ^ w0_t[2]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w0_t[2]);
259     w0_t[3] = rotl32 ((w0_t[0] ^ w2_t[3] ^ w1_t[1] ^ w0_t[3]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w0_t[3]);
260     w1_t[0] = rotl32 ((w0_t[1] ^ w3_t[0] ^ w1_t[2] ^ w1_t[0]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w1_t[0]);
261     w1_t[1] = rotl32 ((w0_t[2] ^ w3_t[1] ^ w1_t[3] ^ w1_t[1]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w1_t[1]);
262     w1_t[2] = rotl32 ((w0_t[3] ^ w3_t[2] ^ w2_t[0] ^ w1_t[2]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w1_t[2]);
263     w1_t[3] = rotl32 ((w1_t[0] ^ w3_t[3] ^ w2_t[1] ^ w1_t[3]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w1_t[3]);
264
265     #undef K
266     #define K SHA1C02
267
268     w2_t[0] = rotl32 ((w1_t[1] ^ w0_t[0] ^ w2_t[2] ^ w2_t[0]), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, w2_t[0]);
269     w2_t[1] = rotl32 ((w1_t[2] ^ w0_t[1] ^ w2_t[3] ^ w2_t[1]), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, w2_t[1]);
270     w2_t[2] = rotl32 ((w1_t[3] ^ w0_t[2] ^ w3_t[0] ^ w2_t[2]), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, w2_t[2]);
271     w2_t[3] = rotl32 ((w2_t[0] ^ w0_t[3] ^ w3_t[1] ^ w2_t[3]), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, w2_t[3]);
272     w3_t[0] = rotl32 ((w2_t[1] ^ w1_t[0] ^ w3_t[2] ^ w3_t[0]), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, w3_t[0]);
273     w3_t[1] = rotl32 ((w2_t[2] ^ w1_t[1] ^ w3_t[3] ^ w3_t[1]), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, w3_t[1]);
274     w3_t[2] = rotl32 ((w2_t[3] ^ w1_t[2] ^ w0_t[0] ^ w3_t[2]), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, w3_t[2]);
275     w3_t[3] = rotl32 ((w3_t[0] ^ w1_t[3] ^ w0_t[1] ^ w3_t[3]), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, w3_t[3]);
276     w0_t[0] = rotl32 ((w3_t[1] ^ w2_t[0] ^ w0_t[2] ^ w0_t[0]), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, w0_t[0]);
277     w0_t[1] = rotl32 ((w3_t[2] ^ w2_t[1] ^ w0_t[3] ^ w0_t[1]), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, w0_t[1]);
278     w0_t[2] = rotl32 ((w3_t[3] ^ w2_t[2] ^ w1_t[0] ^ w0_t[2]), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, w0_t[2]);
279     w0_t[3] = rotl32 ((w0_t[0] ^ w2_t[3] ^ w1_t[1] ^ w0_t[3]), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, w0_t[3]);
280     w1_t[0] = rotl32 ((w0_t[1] ^ w3_t[0] ^ w1_t[2] ^ w1_t[0]), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, w1_t[0]);
281     w1_t[1] = rotl32 ((w0_t[2] ^ w3_t[1] ^ w1_t[3] ^ w1_t[1]), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, w1_t[1]);
282     w1_t[2] = rotl32 ((w0_t[3] ^ w3_t[2] ^ w2_t[0] ^ w1_t[2]), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, w1_t[2]);
283     w1_t[3] = rotl32 ((w1_t[0] ^ w3_t[3] ^ w2_t[1] ^ w1_t[3]), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, w1_t[3]);
284     w2_t[0] = rotl32 ((w1_t[1] ^ w0_t[0] ^ w2_t[2] ^ w2_t[0]), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, w2_t[0]);
285     w2_t[1] = rotl32 ((w1_t[2] ^ w0_t[1] ^ w2_t[3] ^ w2_t[1]), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, w2_t[1]);
286     w2_t[2] = rotl32 ((w1_t[3] ^ w0_t[2] ^ w3_t[0] ^ w2_t[2]), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, w2_t[2]);
287     w2_t[3] = rotl32 ((w2_t[0] ^ w0_t[3] ^ w3_t[1] ^ w2_t[3]), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, w2_t[3]);
288
289     #undef K
290     #define K SHA1C03
291
292     w3_t[0] = rotl32 ((w2_t[1] ^ w1_t[0] ^ w3_t[2] ^ w3_t[0]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w3_t[0]);
293     w3_t[1] = rotl32 ((w2_t[2] ^ w1_t[1] ^ w3_t[3] ^ w3_t[1]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w3_t[1]);
294     w3_t[2] = rotl32 ((w2_t[3] ^ w1_t[2] ^ w0_t[0] ^ w3_t[2]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w3_t[2]);
295     w3_t[3] = rotl32 ((w3_t[0] ^ w1_t[3] ^ w0_t[1] ^ w3_t[3]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w3_t[3]);
296     w0_t[0] = rotl32 ((w3_t[1] ^ w2_t[0] ^ w0_t[2] ^ w0_t[0]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w0_t[0]);
297     w0_t[1] = rotl32 ((w3_t[2] ^ w2_t[1] ^ w0_t[3] ^ w0_t[1]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w0_t[1]);
298     w0_t[2] = rotl32 ((w3_t[3] ^ w2_t[2] ^ w1_t[0] ^ w0_t[2]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w0_t[2]);
299     w0_t[3] = rotl32 ((w0_t[0] ^ w2_t[3] ^ w1_t[1] ^ w0_t[3]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w0_t[3]);
300     w1_t[0] = rotl32 ((w0_t[1] ^ w3_t[0] ^ w1_t[2] ^ w1_t[0]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w1_t[0]);
301     w1_t[1] = rotl32 ((w0_t[2] ^ w3_t[1] ^ w1_t[3] ^ w1_t[1]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w1_t[1]);
302     w1_t[2] = rotl32 ((w0_t[3] ^ w3_t[2] ^ w2_t[0] ^ w1_t[2]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w1_t[2]);
303     w1_t[3] = rotl32 ((w1_t[0] ^ w3_t[3] ^ w2_t[1] ^ w1_t[3]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w1_t[3]);
304     w2_t[0] = rotl32 ((w1_t[1] ^ w0_t[0] ^ w2_t[2] ^ w2_t[0]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w2_t[0]);
305     w2_t[1] = rotl32 ((w1_t[2] ^ w0_t[1] ^ w2_t[3] ^ w2_t[1]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w2_t[1]);
306     w2_t[2] = rotl32 ((w1_t[3] ^ w0_t[2] ^ w3_t[0] ^ w2_t[2]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w2_t[2]);
307     w2_t[3] = rotl32 ((w2_t[0] ^ w0_t[3] ^ w3_t[1] ^ w2_t[3]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w2_t[3]);
308     w3_t[0] = rotl32 ((w2_t[1] ^ w1_t[0] ^ w3_t[2] ^ w3_t[0]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w3_t[0]);
309     w3_t[1] = rotl32 ((w2_t[2] ^ w1_t[1] ^ w3_t[3] ^ w3_t[1]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w3_t[1]);
310     w3_t[2] = rotl32 ((w2_t[3] ^ w1_t[2] ^ w0_t[0] ^ w3_t[2]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w3_t[2]);
311     w3_t[3] = rotl32 ((w3_t[0] ^ w1_t[3] ^ w0_t[1] ^ w3_t[3]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w3_t[3]);
312
313
314     const u32 r0 = d;
315     const u32 r1 = e;
316     const u32 r2 = c;
317     const u32 r3 = b;
318
319     #include COMPARE_M
320   }
321 }
322
323 __kernel void __attribute__((reqd_work_group_size (64, 1, 1))) m00140_m08 (__global pw_t *pws, __global gpu_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 combs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
324 {
325 }
326
327 __kernel void __attribute__((reqd_work_group_size (64, 1, 1))) m00140_m16 (__global pw_t *pws, __global gpu_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 combs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
328 {
329 }
330
331 __kernel void __attribute__((reqd_work_group_size (64, 1, 1))) m00140_s04 (__global pw_t *pws, __global gpu_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 combs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
332 {
333   /**
334    * modifier
335    */
336
337   const u32 lid = get_local_id (0);
338
339   /**
340    * base
341    */
342
343   const u32 gid = get_global_id (0);
344
345   if (gid >= gid_max) return;
346
347   u32 wordl0[4];
348
349   wordl0[0] = pws[gid].i[ 0];
350   wordl0[1] = pws[gid].i[ 1];
351   wordl0[2] = pws[gid].i[ 2];
352   wordl0[3] = pws[gid].i[ 3];
353
354   u32 wordl1[4];
355
356   wordl1[0] = pws[gid].i[ 4];
357   wordl1[1] = pws[gid].i[ 5];
358   wordl1[2] = pws[gid].i[ 6];
359   wordl1[3] = pws[gid].i[ 7];
360
361   u32 wordl2[4];
362
363   wordl2[0] = 0;
364   wordl2[1] = 0;
365   wordl2[2] = 0;
366   wordl2[3] = 0;
367
368   u32 wordl3[4];
369
370   wordl3[0] = 0;
371   wordl3[1] = 0;
372   wordl3[2] = 0;
373   wordl3[3] = 0;
374
375   const u32 pw_l_len = pws[gid].pw_len;
376
377   if (combs_mode == COMBINATOR_MODE_BASE_RIGHT)
378   {
379     switch_buffer_by_offset (wordl0, wordl1, wordl2, wordl3, combs_buf[0].pw_len);
380   }
381
382   /**
383    * salt
384    */
385
386   u32 salt_buf0[4];
387
388   salt_buf0[0] = salt_bufs[salt_pos].salt_buf[0];
389   salt_buf0[1] = salt_bufs[salt_pos].salt_buf[1];
390   salt_buf0[2] = salt_bufs[salt_pos].salt_buf[2];
391   salt_buf0[3] = salt_bufs[salt_pos].salt_buf[3];
392
393   u32 salt_buf1[4];
394
395   salt_buf1[0] = salt_bufs[salt_pos].salt_buf[4];
396   salt_buf1[1] = salt_bufs[salt_pos].salt_buf[5];
397   salt_buf1[2] = salt_bufs[salt_pos].salt_buf[6];
398   salt_buf1[3] = salt_bufs[salt_pos].salt_buf[7];
399
400   const u32 salt_len = salt_bufs[salt_pos].salt_len;
401
402   /**
403    * digest
404    */
405
406   const u32 search[4] =
407   {
408     digests_buf[digests_offset].digest_buf[DGST_R0],
409     digests_buf[digests_offset].digest_buf[DGST_R1],
410     digests_buf[digests_offset].digest_buf[DGST_R2],
411     digests_buf[digests_offset].digest_buf[DGST_R3]
412   };
413
414   /**
415    * reverse
416    */
417
418   const u32 e_rev = rotl32 (search[1], 2u);
419
420   /**
421    * loop
422    */
423
424   for (u32 il_pos = 0; il_pos < combs_cnt; il_pos++)
425   {
426     const u32 pw_r_len = combs_buf[il_pos].pw_len;
427
428     const u32 pw_len = pw_l_len + pw_r_len;
429
430     u32 wordr0[4];
431
432     wordr0[0] = combs_buf[il_pos].i[0];
433     wordr0[1] = combs_buf[il_pos].i[1];
434     wordr0[2] = combs_buf[il_pos].i[2];
435     wordr0[3] = combs_buf[il_pos].i[3];
436
437     u32 wordr1[4];
438
439     wordr1[0] = combs_buf[il_pos].i[4];
440     wordr1[1] = combs_buf[il_pos].i[5];
441     wordr1[2] = combs_buf[il_pos].i[6];
442     wordr1[3] = combs_buf[il_pos].i[7];
443
444     u32 wordr2[4];
445
446     wordr2[0] = 0;
447     wordr2[1] = 0;
448     wordr2[2] = 0;
449     wordr2[3] = 0;
450
451     u32 wordr3[4];
452
453     wordr3[0] = 0;
454     wordr3[1] = 0;
455     wordr3[2] = 0;
456     wordr3[3] = 0;
457
458     if (combs_mode == COMBINATOR_MODE_BASE_LEFT)
459     {
460       switch_buffer_by_offset (wordr0, wordr1, wordr2, wordr3, pw_l_len);
461     }
462
463     /**
464      * prepend salt
465      */
466
467     const u32 pw_salt_len = (pw_len * 2) + salt_len;
468
469     u32 w0[4];
470     u32 w1[4];
471     u32 w2[4];
472     u32 w3[4];
473
474     w0[0] = wordl0[0] | wordr0[0];
475     w0[1] = wordl0[1] | wordr0[1];
476     w0[2] = wordl0[2] | wordr0[2];
477     w0[3] = wordl0[3] | wordr0[3];
478     w1[0] = wordl1[0] | wordr1[0];
479     w1[1] = wordl1[1] | wordr1[1];
480     w1[2] = wordl1[2] | wordr1[2];
481     w1[3] = wordl1[3] | wordr1[3];
482     w2[0] = 0;
483     w2[1] = 0;
484     w2[2] = 0;
485     w2[3] = 0;
486     w3[0] = 0;
487     w3[1] = 0;
488     w3[2] = 0;
489     w3[3] = 0;
490
491     u32 w0_t[4];
492     u32 w1_t[4];
493     u32 w2_t[4];
494     u32 w3_t[4];
495
496     make_unicode (w0, w0_t, w1_t);
497     make_unicode (w1, w2_t, w3_t);
498
499     switch_buffer_by_offset (w0_t, w1_t, w2_t, w3_t, salt_len);
500
501     w0_t[0] |= salt_buf0[0];
502     w0_t[1] |= salt_buf0[1];
503     w0_t[2] |= salt_buf0[2];
504     w0_t[3] |= salt_buf0[3];
505     w1_t[0] |= salt_buf1[0];
506     w1_t[1] |= salt_buf1[1];
507     w1_t[2] |= salt_buf1[2];
508     w1_t[3] |= salt_buf1[3];
509
510     append_0x80_4x4 (w0_t, w1_t, w2_t, w3_t, pw_salt_len);
511
512     w3_t[3] = pw_salt_len * 8;
513
514     /**
515      * sha1
516      */
517
518     w0_t[0] = swap32 (w0_t[0]);
519     w0_t[1] = swap32 (w0_t[1]);
520     w0_t[2] = swap32 (w0_t[2]);
521     w0_t[3] = swap32 (w0_t[3]);
522     w1_t[0] = swap32 (w1_t[0]);
523     w1_t[1] = swap32 (w1_t[1]);
524     w1_t[2] = swap32 (w1_t[2]);
525     w1_t[3] = swap32 (w1_t[3]);
526     w2_t[0] = swap32 (w2_t[0]);
527     w2_t[1] = swap32 (w2_t[1]);
528     w2_t[2] = swap32 (w2_t[2]);
529     w2_t[3] = swap32 (w2_t[3]);
530     w3_t[0] = swap32 (w3_t[0]);
531     w3_t[1] = swap32 (w3_t[1]);
532     //w3_t[2] = swap32 (w3_t[2]);
533     //w3_t[3] = swap32 (w3_t[3]);
534
535     u32 a = SHA1M_A;
536     u32 b = SHA1M_B;
537     u32 c = SHA1M_C;
538     u32 d = SHA1M_D;
539     u32 e = SHA1M_E;
540
541     #undef K
542     #define K SHA1C00
543
544     SHA1_STEP (SHA1_F0o, a, b, c, d, e, w0_t[0]);
545     SHA1_STEP (SHA1_F0o, e, a, b, c, d, w0_t[1]);
546     SHA1_STEP (SHA1_F0o, d, e, a, b, c, w0_t[2]);
547     SHA1_STEP (SHA1_F0o, c, d, e, a, b, w0_t[3]);
548     SHA1_STEP (SHA1_F0o, b, c, d, e, a, w1_t[0]);
549     SHA1_STEP (SHA1_F0o, a, b, c, d, e, w1_t[1]);
550     SHA1_STEP (SHA1_F0o, e, a, b, c, d, w1_t[2]);
551     SHA1_STEP (SHA1_F0o, d, e, a, b, c, w1_t[3]);
552     SHA1_STEP (SHA1_F0o, c, d, e, a, b, w2_t[0]);
553     SHA1_STEP (SHA1_F0o, b, c, d, e, a, w2_t[1]);
554     SHA1_STEP (SHA1_F0o, a, b, c, d, e, w2_t[2]);
555     SHA1_STEP (SHA1_F0o, e, a, b, c, d, w2_t[3]);
556     SHA1_STEP (SHA1_F0o, d, e, a, b, c, w3_t[0]);
557     SHA1_STEP (SHA1_F0o, c, d, e, a, b, w3_t[1]);
558     SHA1_STEP (SHA1_F0o, b, c, d, e, a, w3_t[2]);
559     SHA1_STEP (SHA1_F0o, a, b, c, d, e, w3_t[3]);
560     w0_t[0] = rotl32 ((w3_t[1] ^ w2_t[0] ^ w0_t[2] ^ w0_t[0]), 1u); SHA1_STEP (SHA1_F0o, e, a, b, c, d, w0_t[0]);
561     w0_t[1] = rotl32 ((w3_t[2] ^ w2_t[1] ^ w0_t[3] ^ w0_t[1]), 1u); SHA1_STEP (SHA1_F0o, d, e, a, b, c, w0_t[1]);
562     w0_t[2] = rotl32 ((w3_t[3] ^ w2_t[2] ^ w1_t[0] ^ w0_t[2]), 1u); SHA1_STEP (SHA1_F0o, c, d, e, a, b, w0_t[2]);
563     w0_t[3] = rotl32 ((w0_t[0] ^ w2_t[3] ^ w1_t[1] ^ w0_t[3]), 1u); SHA1_STEP (SHA1_F0o, b, c, d, e, a, w0_t[3]);
564
565     #undef K
566     #define K SHA1C01
567
568     w1_t[0] = rotl32 ((w0_t[1] ^ w3_t[0] ^ w1_t[2] ^ w1_t[0]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w1_t[0]);
569     w1_t[1] = rotl32 ((w0_t[2] ^ w3_t[1] ^ w1_t[3] ^ w1_t[1]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w1_t[1]);
570     w1_t[2] = rotl32 ((w0_t[3] ^ w3_t[2] ^ w2_t[0] ^ w1_t[2]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w1_t[2]);
571     w1_t[3] = rotl32 ((w1_t[0] ^ w3_t[3] ^ w2_t[1] ^ w1_t[3]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w1_t[3]);
572     w2_t[0] = rotl32 ((w1_t[1] ^ w0_t[0] ^ w2_t[2] ^ w2_t[0]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w2_t[0]);
573     w2_t[1] = rotl32 ((w1_t[2] ^ w0_t[1] ^ w2_t[3] ^ w2_t[1]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w2_t[1]);
574     w2_t[2] = rotl32 ((w1_t[3] ^ w0_t[2] ^ w3_t[0] ^ w2_t[2]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w2_t[2]);
575     w2_t[3] = rotl32 ((w2_t[0] ^ w0_t[3] ^ w3_t[1] ^ w2_t[3]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w2_t[3]);
576     w3_t[0] = rotl32 ((w2_t[1] ^ w1_t[0] ^ w3_t[2] ^ w3_t[0]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w3_t[0]);
577     w3_t[1] = rotl32 ((w2_t[2] ^ w1_t[1] ^ w3_t[3] ^ w3_t[1]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w3_t[1]);
578     w3_t[2] = rotl32 ((w2_t[3] ^ w1_t[2] ^ w0_t[0] ^ w3_t[2]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w3_t[2]);
579     w3_t[3] = rotl32 ((w3_t[0] ^ w1_t[3] ^ w0_t[1] ^ w3_t[3]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w3_t[3]);
580     w0_t[0] = rotl32 ((w3_t[1] ^ w2_t[0] ^ w0_t[2] ^ w0_t[0]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w0_t[0]);
581     w0_t[1] = rotl32 ((w3_t[2] ^ w2_t[1] ^ w0_t[3] ^ w0_t[1]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w0_t[1]);
582     w0_t[2] = rotl32 ((w3_t[3] ^ w2_t[2] ^ w1_t[0] ^ w0_t[2]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w0_t[2]);
583     w0_t[3] = rotl32 ((w0_t[0] ^ w2_t[3] ^ w1_t[1] ^ w0_t[3]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w0_t[3]);
584     w1_t[0] = rotl32 ((w0_t[1] ^ w3_t[0] ^ w1_t[2] ^ w1_t[0]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w1_t[0]);
585     w1_t[1] = rotl32 ((w0_t[2] ^ w3_t[1] ^ w1_t[3] ^ w1_t[1]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w1_t[1]);
586     w1_t[2] = rotl32 ((w0_t[3] ^ w3_t[2] ^ w2_t[0] ^ w1_t[2]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w1_t[2]);
587     w1_t[3] = rotl32 ((w1_t[0] ^ w3_t[3] ^ w2_t[1] ^ w1_t[3]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w1_t[3]);
588
589     #undef K
590     #define K SHA1C02
591
592     w2_t[0] = rotl32 ((w1_t[1] ^ w0_t[0] ^ w2_t[2] ^ w2_t[0]), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, w2_t[0]);
593     w2_t[1] = rotl32 ((w1_t[2] ^ w0_t[1] ^ w2_t[3] ^ w2_t[1]), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, w2_t[1]);
594     w2_t[2] = rotl32 ((w1_t[3] ^ w0_t[2] ^ w3_t[0] ^ w2_t[2]), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, w2_t[2]);
595     w2_t[3] = rotl32 ((w2_t[0] ^ w0_t[3] ^ w3_t[1] ^ w2_t[3]), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, w2_t[3]);
596     w3_t[0] = rotl32 ((w2_t[1] ^ w1_t[0] ^ w3_t[2] ^ w3_t[0]), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, w3_t[0]);
597     w3_t[1] = rotl32 ((w2_t[2] ^ w1_t[1] ^ w3_t[3] ^ w3_t[1]), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, w3_t[1]);
598     w3_t[2] = rotl32 ((w2_t[3] ^ w1_t[2] ^ w0_t[0] ^ w3_t[2]), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, w3_t[2]);
599     w3_t[3] = rotl32 ((w3_t[0] ^ w1_t[3] ^ w0_t[1] ^ w3_t[3]), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, w3_t[3]);
600     w0_t[0] = rotl32 ((w3_t[1] ^ w2_t[0] ^ w0_t[2] ^ w0_t[0]), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, w0_t[0]);
601     w0_t[1] = rotl32 ((w3_t[2] ^ w2_t[1] ^ w0_t[3] ^ w0_t[1]), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, w0_t[1]);
602     w0_t[2] = rotl32 ((w3_t[3] ^ w2_t[2] ^ w1_t[0] ^ w0_t[2]), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, w0_t[2]);
603     w0_t[3] = rotl32 ((w0_t[0] ^ w2_t[3] ^ w1_t[1] ^ w0_t[3]), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, w0_t[3]);
604     w1_t[0] = rotl32 ((w0_t[1] ^ w3_t[0] ^ w1_t[2] ^ w1_t[0]), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, w1_t[0]);
605     w1_t[1] = rotl32 ((w0_t[2] ^ w3_t[1] ^ w1_t[3] ^ w1_t[1]), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, w1_t[1]);
606     w1_t[2] = rotl32 ((w0_t[3] ^ w3_t[2] ^ w2_t[0] ^ w1_t[2]), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, w1_t[2]);
607     w1_t[3] = rotl32 ((w1_t[0] ^ w3_t[3] ^ w2_t[1] ^ w1_t[3]), 1u); SHA1_STEP (SHA1_F2o, a, b, c, d, e, w1_t[3]);
608     w2_t[0] = rotl32 ((w1_t[1] ^ w0_t[0] ^ w2_t[2] ^ w2_t[0]), 1u); SHA1_STEP (SHA1_F2o, e, a, b, c, d, w2_t[0]);
609     w2_t[1] = rotl32 ((w1_t[2] ^ w0_t[1] ^ w2_t[3] ^ w2_t[1]), 1u); SHA1_STEP (SHA1_F2o, d, e, a, b, c, w2_t[1]);
610     w2_t[2] = rotl32 ((w1_t[3] ^ w0_t[2] ^ w3_t[0] ^ w2_t[2]), 1u); SHA1_STEP (SHA1_F2o, c, d, e, a, b, w2_t[2]);
611     w2_t[3] = rotl32 ((w2_t[0] ^ w0_t[3] ^ w3_t[1] ^ w2_t[3]), 1u); SHA1_STEP (SHA1_F2o, b, c, d, e, a, w2_t[3]);
612
613     #undef K
614     #define K SHA1C03
615
616     w3_t[0] = rotl32 ((w2_t[1] ^ w1_t[0] ^ w3_t[2] ^ w3_t[0]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w3_t[0]);
617     w3_t[1] = rotl32 ((w2_t[2] ^ w1_t[1] ^ w3_t[3] ^ w3_t[1]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w3_t[1]);
618     w3_t[2] = rotl32 ((w2_t[3] ^ w1_t[2] ^ w0_t[0] ^ w3_t[2]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w3_t[2]);
619     w3_t[3] = rotl32 ((w3_t[0] ^ w1_t[3] ^ w0_t[1] ^ w3_t[3]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w3_t[3]);
620     w0_t[0] = rotl32 ((w3_t[1] ^ w2_t[0] ^ w0_t[2] ^ w0_t[0]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w0_t[0]);
621     w0_t[1] = rotl32 ((w3_t[2] ^ w2_t[1] ^ w0_t[3] ^ w0_t[1]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w0_t[1]);
622     w0_t[2] = rotl32 ((w3_t[3] ^ w2_t[2] ^ w1_t[0] ^ w0_t[2]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w0_t[2]);
623     w0_t[3] = rotl32 ((w0_t[0] ^ w2_t[3] ^ w1_t[1] ^ w0_t[3]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w0_t[3]);
624     w1_t[0] = rotl32 ((w0_t[1] ^ w3_t[0] ^ w1_t[2] ^ w1_t[0]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w1_t[0]);
625     w1_t[1] = rotl32 ((w0_t[2] ^ w3_t[1] ^ w1_t[3] ^ w1_t[1]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w1_t[1]);
626     w1_t[2] = rotl32 ((w0_t[3] ^ w3_t[2] ^ w2_t[0] ^ w1_t[2]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w1_t[2]);
627     w1_t[3] = rotl32 ((w1_t[0] ^ w3_t[3] ^ w2_t[1] ^ w1_t[3]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w1_t[3]);
628     w2_t[0] = rotl32 ((w1_t[1] ^ w0_t[0] ^ w2_t[2] ^ w2_t[0]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w2_t[0]);
629     w2_t[1] = rotl32 ((w1_t[2] ^ w0_t[1] ^ w2_t[3] ^ w2_t[1]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w2_t[1]);
630     w2_t[2] = rotl32 ((w1_t[3] ^ w0_t[2] ^ w3_t[0] ^ w2_t[2]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w2_t[2]);
631     w2_t[3] = rotl32 ((w2_t[0] ^ w0_t[3] ^ w3_t[1] ^ w2_t[3]), 1u); SHA1_STEP (SHA1_F1, a, b, c, d, e, w2_t[3]);
632     w3_t[0] = rotl32 ((w2_t[1] ^ w1_t[0] ^ w3_t[2] ^ w3_t[0]), 1u); SHA1_STEP (SHA1_F1, e, a, b, c, d, w3_t[0]);
633
634     if (allx (e != e_rev)) continue;
635
636     w3_t[1] = rotl32 ((w2_t[2] ^ w1_t[1] ^ w3_t[3] ^ w3_t[1]), 1u); SHA1_STEP (SHA1_F1, d, e, a, b, c, w3_t[1]);
637     w3_t[2] = rotl32 ((w2_t[3] ^ w1_t[2] ^ w0_t[0] ^ w3_t[2]), 1u); SHA1_STEP (SHA1_F1, c, d, e, a, b, w3_t[2]);
638     w3_t[3] = rotl32 ((w3_t[0] ^ w1_t[3] ^ w0_t[1] ^ w3_t[3]), 1u); SHA1_STEP (SHA1_F1, b, c, d, e, a, w3_t[3]);
639
640
641     const u32 r0 = d;
642     const u32 r1 = e;
643     const u32 r2 = c;
644     const u32 r3 = b;
645
646     #include COMPARE_S
647   }
648 }
649
650 __kernel void __attribute__((reqd_work_group_size (64, 1, 1))) m00140_s08 (__global pw_t *pws, __global gpu_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 combs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
651 {
652 }
653
654 __kernel void __attribute__((reqd_work_group_size (64, 1, 1))) m00140_s16 (__global pw_t *pws, __global gpu_rule_t *rules_buf, __global comb_t *combs_buf, __global bf_t *bfs_buf, __global void *tmps, __global void *hooks, __global u32 *bitmaps_buf_s1_a, __global u32 *bitmaps_buf_s1_b, __global u32 *bitmaps_buf_s1_c, __global u32 *bitmaps_buf_s1_d, __global u32 *bitmaps_buf_s2_a, __global u32 *bitmaps_buf_s2_b, __global u32 *bitmaps_buf_s2_c, __global u32 *bitmaps_buf_s2_d, __global plain_t *plains_buf, __global digest_t *digests_buf, __global u32 *hashes_shown, __global salt_t *salt_bufs, __global void *esalt_bufs, __global u32 *d_return_buf, __global u32 *d_scryptV_buf, const u32 bitmap_mask, const u32 bitmap_shift1, const u32 bitmap_shift2, const u32 salt_pos, const u32 loop_pos, const u32 loop_cnt, const u32 combs_cnt, const u32 digests_cnt, const u32 digests_offset, const u32 combs_mode, const u32 gid_max)
655 {
656 }