find... fler/stora?

Tråden skapades och har fått 12 svar. Det senaste inlägget skrevs .
1

Okej startdisken är full.
Jag behöver söka reda på vilka stora filer som snor hela disken.
Jag är alldeles för stressad just nu för att tänka klart så jag hoppas att någon här kan hjälpa mig.
"find /" okej sedan då?

Mitt kommando: find / sortera efter storleksordning. 100 första filerna.

hmm, kommer inte ihåg rakt av om find stödjer sökning på storlek, kollat man-pagen?

annars kan du ju navigerar runt i folderna lite med denna; du -ch --max-depth=1

  • Oregistrerad
  • 2004-07-13 19:45
Ursprungligen av johan dansk:

hmm, kommer inte ihåg rakt av om find stödjer sökning på storlek, kollat man-pagen?

annars kan du ju navigerar runt i folderna lite med denna; du -ch --max-depth=1

Om du kör med "megabyte" utskrifter -m istället för -h så kan du bara skicka det till sort sedan.

du -m --max-depth=1 | sort -n

detta funkar bra på min linuxburk. kan inte testa på min ibook pga att det kryar upp sig nere i holland just nu.

men du ville ju först ha ett find-kommando

detta hittar alla filer i eller under aktuell katalog som är över 100MB stora
find . -size +100000k

detta göra samma sak, men skriver ut storleken och sorterar listan, samt tar bara med de 50 största
find . -size +100000k -printf '%k\t%p\n' | sort -n | tail -n 10

som sagt, testat under linux. tror -m kan saknas på mac och är inte säker på hur tail tar sina argument, du kanske vill skippa -n till tail.

  • Oregistrerad
  • 2004-07-13 20:25

Varför använda terminalen? Tryck Äpple+F, tryck på ett plus längst ner och då kan du lägga in storlek som ett val. Fungerar för mig.

Ursprungligen av romanenko:

Varför använda terminalen? Tryck Äpple+F, tryck på ett plus längst ner och då kan du lägga in storlek som ett val. Fungerar för mig.

Inget unikt för OS X heller för den delen. Så där har jag städat macar sen början på 90-talet. Lägg sen till tillvalet osynliga filer så kan man hitta mer prylar. Eller sök på mappar vars storlek är ... osv.

det blir en annan lösning... ls på rotten som jag pipar in i en text fil som jag sedan sorterar i Excel eller nåt...
Det där lät mumbojumbo. hehe.

  • Medlem
  • Stockholm
  • 2004-07-14 02:13

sudo du -hs /*

så får du en lista på hur mycket i utrymme alla katalogerna i rooten tar upp. Sen är det bara att gå ner och se var utrymmet försvinner.. bara för att du har 1 fil på 4 gig så kan faktiskt mappen med 10000 5mb filer göra större skada.

/glemme

  • Medlem
  • 2004-07-14 04:51

Lite sent med svaren... hehe men jag lär mig och kommer ihåg (kanske) tills nästa gång jag råkar ut för det.
Orsaken till problemet jag nämnde ovan var att rsync hade blivit galet och börjat skapa mappar och flyttat backupen dit istället för att kopiera det till Xraiden... så kan det gå.

  • Medlem
  • International user
  • 2004-07-14 08:36
Ursprungligen av Mattias Hedman:

Lite sent med svaren... hehe men jag lär mig och kommer ihåg (kanske) tills nästa gång jag råkar ut för det.
Orsaken till problemet jag nämnde ovan var att rsync hade blivit galet och börjat skapa mappar och flyttat backupen dit istället för att kopiera det till Xraiden... så kan det gå.

rsync kan aldrig bli galet - möjligen användas av galningar

Jodå, servern hade tappat kontakten med xraiden av någon anledning, då istället för att skicka ett felmeddelande skapade rysnc bacup mappen självt i /Volumes/ katalogen och gjorde sin backup dit.

Det är inte jag som skrivit detta shell script som sköter detta men det här var resultatet.
Vilket krävde 2 omstarter av servern för att få till. Illa.

  • Medlem
  • International user
  • 2004-07-14 09:06

Man måste hantera fel av typen "servern hade tappat kontakten med xraiden" i scriptet. Då händer aldrig sånt...

Sant. Jag sa det till kollegan till han som skrivit scriptet och "han har kollat scripetet ut och innan så det ska alrig producera fel eller något sådat här" som han uttryckte det. Men uppenbarligen gjorde den det...
Gör om, gör rätt.

1
Bevaka tråden