PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Hash-cracking Botnet?



BlackCobra
17.07.2010, 11:09
Hallo,
ich wollte mal wissen, ob es so eine Art Botnet gibt das Hashs organisiert crackt indem es sich einzelne Ranges unter den PC's aufteilt. Wenn ja, hätte jemand einen Link dazu?
MFG BlackCobra

IRET
17.07.2010, 11:22
4 free kenn ich keinen und dass einer public verkauft wird wüsst ich jetzt auch nicht.
Es gibt halt die Elcomsoft Sachen.
Aber da muss der Anwender zustimmen XD.

//Edit:
So ein Bot ist sehr kompliziert.
Man muss damit rechnen ,dass jederzeit ein PC down geht.
Und wenn sich der Bot nach jedem 2. Hash beim Host meldet ,ist es doch schon fast schneller den Hash selber zu cracken.

BlackCobra
17.07.2010, 11:23
Das is scheiße ^^ Ich wollte das halt so handhaben, dass derjenige nichts mitbekommt.

Keksdose
17.07.2010, 12:26
Ja und wie wärs damit das mit Einverständnis zu machen? FH hat doch ne menge nutzer, da könnte man doch sowas machen oder?
Also zB wenn man nich am PC is dass man dann die Leistung zur verfügung stellen kann. Genauso vielleicht auch Festplattenspeicher. Natürlich nicht die ganze zeit 100% Auslastung wegen Haltbarkeit ;)
Sowas gabs doch auch bei diesen 2^x-1 Primzahlberechnung.

Müsste natürlich auch sicher sein, nich dass man an soner Sache mitarbeiten will und am Ende nur als vic ausgenutzt wird...

100
17.07.2010, 12:32
Außerdem reicht es kaum. Ich habe mal gerechnet mit einem kleinen Botnet mit um die 50k Vics. Wenn man sich entschließt, so ein Botnet zu starten, dann will man damit auch wichtige Hashs bekommen. Nun kenn ich mich mit Tables nicht so gut aus, aber nehme einfach mal Bruteforce. 150 Hashs/s hatte mir jemand gesagt, würden nicht auffallen beim CPU Bruten.

15 Zeichen mindestens:
Charset hat dann irgendwie 60 Zeichen -> 470184984576000000000000000
Geteilt durch 50k -> 9403699691520000000000 für jeden Bot
Crackt dieser 150 Hashs/s -> 62691331276800000000s
-> 1554844525714285 Monate

Also bruten kannst du vergessen. Tables wären gigantisch groß, und ich glaube nicht, dass man umbemerkt über 50GB der Festplatte einnehmen kann.

BlackCobra
17.07.2010, 12:32
Ich glaube kaum, dass min. 800 Vics damit einverstanden wären.
edit:\ schade aber auch.

Reaper14
18.07.2010, 11:04
Aber wenn man jetzt sehr gut ist und das nicht für die CPU macht sondern für die Grafikkarte. Dann könnte man locker 50Mhash/s machen. Meine alte Geforce 8800 GTS hat schon so 200Mhash/s gepackt. Damit wurde man die Geschwindigkeit mächtig erhöhen.

BlackCobra
18.07.2010, 11:26
Ja, aber du müsstest sehr viele Grafikkarten unterstützen.

Reaper14
18.07.2010, 14:34
So weit ich weiß kann man das grad nur mit halbwegs akktuellen Nividia karten. Aber das könnte man z.b. zu dem CPU cracking dazu nehmen. Das Problem is wenn man das ganze in ranges aufteilt und ein Bot geht off und genau in der range liegt die lösung dann kann man ewig warten und es kommt nichts bei raus.

fred777
18.07.2010, 15:19
Es sei denn, er schickt alle Minuten einen 'Sicherungsrequest'..

dzdz
18.07.2010, 15:25
mhm
stell ich mir jetzt auchnicht soschwer vor

jeder rechner kriegt eben für 10 minuten arbeit und macht dann ne rückmeldung an den server ob funzt oder nicht

wenn innerhalb von 20 min keine rückmeldung kommt wird das päkchen neu verteilt

br00_pwn
18.07.2010, 15:48
Naja, das Problem besteht einfach darin, das die Ressourcenauslastung bei GPU Burten schon sehr auffällig ist !
Das zweite Problem fängt schon bei der Grafikkarte an und geht weiter über passende Treiber (Cuda, SKD usw)
Da CPU keine bestimmten Voraussetzungen mitbringen muss (Treiber, Toolkits usw.), bietet sich alleine diese Möglichkeit an...

Was viel einfacher wäre & was es auch schon gibt : Einen Bot der Rainbowtables erstellt.
Die Tables werden mit geringer CPU Leistung generiert was eben dann voraussetzt, dass man eine sehr große Anzahl an Zombies besitzt.
Von Vorteil ist auch, dass man die Tables z.b nach einem Neustart des PC genau an der Stelle weiter generieren kann, wo man zuvor aufgehört hat.
Man hat auch Möglichkeit, die Größer der Tables & Chains manuell zu bestimmen, was uns da sehr zu Gute kommt.
Wenn die vorher bestimmte Chainlänge oder das Table (Größe variable) vollständig generiert wurde, wird dieses z.b auf einen Server geladen.
Man sollte sich auf jeden Fall für .rti entscheiden, da .rt die doppelte Größe besitzt. (Kann anschließend auf dem Server wieder konvertiert werden)
Anschließend kann man die Tables auf dem Server wieder zusammenfügen und bekommt somit ein vollständiges Table.
Was aber entscheidend ist, dass die Tables eine geringe Größe haben sollten, um den Upload unauffällig zu gestalten.

Mal als Beispiel :
Ein Rainbowtable von md5_loweralpha-numeric-space#1-8 hat im Normalfall 4x9 (36) .rt's, die jeweils eine Größe von 1024 MB haben... ergibt 36 GB ;)
0
| |-- md5_loweralpha-numeric-space#1-8_0_10000x50128379_distrrtgen[p][i]_09.rt
| |-- md5_loweralpha-numeric-space#1-8_0_10000x67108864_distrrtgen[p][i]_00.rt
| |-- md5_loweralpha-numeric-space#1-8_0_10000x67108864_distrrtgen[p][i]_01.rt
| |-- md5_loweralpha-numeric-space#1-8_0_10000x67108864_distrrtgen[p][i]_02.rt
| |-- md5_loweralpha-numeric-space#1-8_0_10000x67108864_distrrtgen[p][i]_03.rt
| |-- md5_loweralpha-numeric-space#1-8_0_10000x67108864_distrrtgen[p][i]_04.rt
| |-- md5_loweralpha-numeric-space#1-8_0_10000x67108864_distrrtgen[p][i]_05.rt
| |-- md5_loweralpha-numeric-space#1-8_0_10000x67108864_distrrtgen[p][i]_06.rt
| |-- md5_loweralpha-numeric-space#1-8_0_10000x67108864_distrrtgen[p][i]_07.rt
| `-- md5_loweralpha-numeric-space#1-8_0_10000x67108864_distrrtgen[p][i]_08.rt
|-- 1
| |-- md5_loweralpha-numeric-space#1-8_1_10000x50250516_distrrtgen[p][i]_09.rt
| |-- md5_loweralpha-numeric-space#1-8_1_10000x67108864_distrrtgen[p][i]_00.rt
| |-- md5_loweralpha-numeric-space#1-8_1_10000x67108864_distrrtgen[p][i]_01.rt
| |-- md5_loweralpha-numeric-space#1-8_1_10000x67108864_distrrtgen[p][i]_02.rt
| |-- md5_loweralpha-numeric-space#1-8_1_10000x67108864_distrrtgen[p][i]_03.rt
| |-- md5_loweralpha-numeric-space#1-8_1_10000x67108864_distrrtgen[p][i]_04.rt
| |-- md5_loweralpha-numeric-space#1-8_1_10000x67108864_distrrtgen[p][i]_05.rt
| |-- md5_loweralpha-numeric-space#1-8_1_10000x67108864_distrrtgen[p][i]_06.rt
| |-- md5_loweralpha-numeric-space#1-8_1_10000x67108864_distrrtgen[p][i]_07.rt
| `-- md5_loweralpha-numeric-space#1-8_1_10000x67108864_distrrtgen[p][i]_08.rt
|-- 2
| |-- md5_loweralpha-numeric-space#1-8_2_10000x55783677_distrrtgen[p][i]_9.rt
| |-- md5_loweralpha-numeric-space#1-8_2_10000x67108864_distrrtgen[p][i]_0.rt
| |-- md5_loweralpha-numeric-space#1-8_2_10000x67108864_distrrtgen[p][i]_1.rt
| |-- md5_loweralpha-numeric-space#1-8_2_10000x67108864_distrrtgen[p][i]_2.rt
| |-- md5_loweralpha-numeric-space#1-8_2_10000x67108864_distrrtgen[p][i]_3.rt
| |-- md5_loweralpha-numeric-space#1-8_2_10000x67108864_distrrtgen[p][i]_4.rt
| |-- md5_loweralpha-numeric-space#1-8_2_10000x67108864_distrrtgen[p][i]_5.rt
| |-- md5_loweralpha-numeric-space#1-8_2_10000x67108864_distrrtgen[p][i]_6.rt
| |-- md5_loweralpha-numeric-space#1-8_2_10000x67108864_distrrtgen[p][i]_7.rt
| `-- md5_loweralpha-numeric-space#1-8_2_10000x67108864_distrrtgen[p][i]_8.rt
`-- 3
|-- md5_loweralpha-numeric-space#1-8_3_10000x49590079_distrrtgen[p][i]_9.rt
|-- md5_loweralpha-numeric-space#1-8_3_10000x67108864_distrrtgen[p][i]_0.rt
|-- md5_loweralpha-numeric-space#1-8_3_10000x67108864_distrrtgen[p][i]_1.rt
|-- md5_loweralpha-numeric-space#1-8_3_10000x67108864_distrrtgen[p][i]_2.rt
|-- md5_loweralpha-numeric-space#1-8_3_10000x67108864_distrrtgen[p][i]_3.rt
|-- md5_loweralpha-numeric-space#1-8_3_10000x67108864_distrrtgen[p][i]_4.rt
|-- md5_loweralpha-numeric-space#1-8_3_10000x67108864_distrrtgen[p][i]_5.rt
|-- md5_loweralpha-numeric-space#1-8_3_10000x67108864_distrrtgen[p][i]_6.rt
|-- md5_loweralpha-numeric-space#1-8_3_10000x67108864_distrrtgen[p][i]_7.rt
`-- md5_loweralpha-numeric-space#1-8_3_10000x67108864_distrrtgen[p][i]_8.rt
Wir können natürlich auch die Tables mit einer Größe von 512 MB generieren...dann wären es (4x9)x2 Tables... usw....
Man könnte also auch sehr sehr kleine Tables erstellen...

Stellt euch vor ihr habt eine 40 GB HDD (also seit ihr low :D ) und habt euch mit solch einem Bot infiziert... Wenn plötzlich lokal 2 GB fehlen, würde das evtl auffallen !
Aber wenn wir z.b die Tables mit einer Größe von 50 MB oder vllt noch kleiner erzeugen , wäre es schon um einiges unauffälliger !
Sobald ein Table fertig generiert wurde, wird dieses auf den Server geladen & der Speicherplatz wird wieder freigegeben.
Währenddessen beginnt das generieren vom nächsten Table schon... usw..

Hatte das Thema schon mal ausgiebig mit 100 diskutiert :D

LG br00_pwn