wtorek, 9 lipca 2013

Od czego zależy cena reinstalacji Windowsa czyli coś o wycenie usług informatycznych

Teraz coś o pieniądzach...
Być może czasami zastanawialiście się od czego zależy cena takiej przykładowej, typowej usługi informatycznej. Poprzez "typową" usługę rozumiem np. chyba już legendarne przeinstalowanie Windowsa.
Często bowiem spotykamy na stronach firm informatycznych czy w serwisach ogłoszeniowych różne wyceny tej samej usługi i nieraz wydaje się to dziwne - jedni chcą tyle, drudzy dwa razy więcej.
Czy to znaczy że ci informatycy, którzy chcą za to więcej to oszuści i zdziercy? A może inni cenią się za tanio?
Spróbuję na to pytanie odpowiedzieć z pozycji informatyka, który też realizuje takie zlecenia.
Przede wszystkim - w branży informatycznej, podobnie jak w innych branżach, istnieją pewne wieloznacznie nazwane usługi. Poprzez wieloznaczność mam na myśli to że pod tą samą nazwą cennikową może kryć się zupełnie różne usługi, których czas realizacji to 30 minut jak i 4 godziny...
Oczywiście wiadomo że im więcej pracy tym więcej usługa będzie kosztować.
Skąd taki rozstrzał? Czy te 4 godzin to jakieś oszustwo? A może zrobienie tego w 30 minut to jakieś pójście na skróty czy partactwo?
Najczęściej ani jedno ani drugie...
Operuję tu cały czas klasycznym przykładem przeinstalowania systemu Windows XP bo świetnie oddaje to zjawisko choć system tej już jest bardzo dojrzały i coraz więcej osób przesiada się na Windows 7 i 8.
W wycenie chodzi o faktyczną pracochłonność i nakład czasu potrzebny do osiągnięcia efektu zakładanego przez klienta. I w zależności od tego co zastaniemy u klienta, jego sprzętu i oczekiwań "dodatkowych", na osiągnięcie tego samego efektu, potrzebujemy mniejszej lub większej ilości pracy - a więc i czasu...
Często takie kalkulacje nie biorą pod uwagę konieczności wykonania wielu czynności dodatkowych. Przykładowo - zwykłe zainstalowanie Windows najczęściej zajmuje do 30 minut - ale chodzi tu o samą instalację po uruchomieniu instalatora z płytki czy pendrive.
Co więcej - nawet i ten etap może potrwać różnie - jeśli np. podczas instalacji XP wybierzemy pełne formatowanie zamiast szybkiego, to nawet ta podstawowa instalacja może się wydłużyć. Szybkie formatowanie jest jednym z etapów instalacji i zajmuje np. do 30 sekund, jeśli zamiast tego wybierzemy pełne formatowanie, to w zależności od szybkości naszego dysku i jego pojemności, może to sięgnąć prawie godziny...
Czyli z 30 minut może się nagle zrobić 1,5 godziny na samą instalację samego systemu - bez przywracania danych czy instalacji sterowników.
formatowanie Windows i inne

Zakładając jednak że trzymamy się szybkiego formatowania podczas instalacji, pozostaje wiele spraw dodatkowych, które mogą taką usługę wydłużyć.
Najbardziej podstawową sprawą są sterowniki do różnych urządzeń w komputerze. Większość z nich znajdziemy w lepszej czy gorszej wersji w samym systemie operacyjnym. Im nowsza wersja systemu tym więcej ich tam znajdziemy.
Oczywiście najczęściej te sterowniki najbardziej wydajne, najnowsze albo o największej funkcjonalności, znajdziemy na stronie producenta danego sprzętu lub na płytce dołączonej do sprzętu. Bywa że Microsoft nie zawarł w systemie operacyjnym tych sterowników i strona producenta lub płytka jest jedynym ich źródłem.
Najgorszy scenariusz to taki, gdzie nawet na stronie producenta nie znajdujemy sterowników i musimy szukać naprawdę dobrze aby takie urządzenie uruchomić. To jednak zdarza się naprawdę rzadko i z bardzo unikalnym sprzętem.
Dodatkowo jeśli klient zaznaczy że chce w ramach reinstalacji mieć zabezpieczone swoje dane i programy, które miał wcześniej zainstalowane, okazuje się że w zależności od ilości tych danych i programów, robota wydłuża nam się o kolejne 30 minut do nawet ekstra kilku godzin.
Dlaczego? Dlatego, że przecież dane, które zabezpieczamy (czyli najczęściej kopiujemy w inne miejsce, np. na pendrive, dysk przenośny czy drugą partycję) mogą mieć różny rozmiar. To może być i 10 MB (np. 20 dokumentów) jak i 200 GB (wielka kolekcja zdjęć). Im więcej danych, tym więcej czekania aż to się gdzieś skopiuje przed wykonaniem reinstalacji a potem drugie tyle aż się skopiuje z powrotem po reinstalacji.
Tak samo z programami, które klient chce mieć działające po reinstalacji - ich ponowna instalacja zajmuje również sporo czasu w niektórych przypadkach. Tym więcej, im bardziej programy są nietypowe, brakuje do nich plików instalacyjnych, trzeba odnaleźć klucze licencyjne czy przywrócić dane w ich miejsce.
Bywa że zabezpieczanie danych zajmuje 2 godziny, reinstalacja godzinę, przywracanie danych to kolejne 2 godziny...

Poza tym można zauważyć dwa podejścia do sprawy aktualizacji systemu Windows po jego zainstalowaniu.
System operacyjny, zainstalowany z płytki czy pendrive, ma stan aktualizacji na dzień wypuszczenia takiej płytki czy obrazu na rynek. Najczęściej od tego momentu producent systemu znajduje wiele błędów i poprawia je wypuszczając aktualizacje Windows.
Po zainstalowaniu system sam z siebie po jakimś czasie proponuje ich instalację.
Jedni informatycy skłaniają się ku takiej propozycji i poświęcają w ramach usługi reinstalacji systemu czas na zainstalowanie tych poprawek, drudzy nie widzą takiej potrzeby, uważają że system gdzieś tam je sam potem pobierze.
Dlaczego ma to znaczenie w czasie realizacji usługi i jej koszcie? Ponieważ to trwa - i to w zależności od wersji systemu i jego wydania (Windows XP wychodził na płytkach z różnymi poziomami poprawek, w zależności od roku wypuszczenia płytki), komputer musi pobrać więcej lub mniej danych z Internetu aby osiągnąć aktualny poziom poprawek. Na czas pobierania ma też wpływ prędkość łącza internetowego, jaką dysponuje klient.
Czyli w bardzo optymistycznym scenariuszu reinstalacji Windows XP mamy ok. 30 minut jeśli nie zabezpieczamy danych, robimy szybkie formatowanie, sterowniki albo są w systemie albo mamy je pod ręką, a potem nie musimy instalować najbardziej typowych programów bo klient zrobi to sam.
Czarny scenariusz to np. reinstalacja z pełnym formatowaniem, problemami z odnalezieniem sterowników, wiele danych do zabezpieczenia oraz wiele poprawek Windows do pobrania - w efekcie nawet 5-6 godzin schodzi na jedną reinstalację.
Jak widać wszystko zależy od tego ile klient sobie zażyczy abyśmy zrobili w ramach takiej reinstalacji lub ile my zdecydujemy za klienta ile powinniśmy zrobić.

Niestety nie wszyscy klienci wiedzą czego mogą lub nawet powinni sobie zażyczyć. W efekcie kierując się jedynie ceną mogą łatwo się "naciąć" na tanią usługę, która okazuje się być jedynie samym sformatowaniem dysku i zainstalowaniem "gołego" Windowsa. I dopiero potem przychodzi uświadomienie sobie "gdzie moje zdjęcia z wakacji, gdzie moja poczta, gdzie moje dokumenty..." - ale wtedy najczęściej jest już za późno.
Nasza etyka jest taka że jeśli już zabieramy się za reinstalację systemu, dokładnie dopytujemy klienta o zakres tej usługi, przypominamy o zabezpieczeniu danych, poczty itp. Uświadamiamy jakie będą skutki tego, jakie tamtego, informujemy ile to potrwa. Dopiero mając wszystkie niezbędne informacje, przystępujemy do działania.

poniedziałek, 8 lipca 2013

Czy Linux to naprawdę zamiennik dla Windowsa?

Od kilku lat gdzieś przewijają się nam informacje że zamiast Windowsa można zainstalować na komputerze "Linuxa" czyli którąś z dystrybucji systemu Linux: Ubuntu, Linux Mint, Fedora, Mandriva... Niektórzy nawet są z tego zadowoleni, choć spotykamy też opinie że dla niektórych praca w takim środowisku jest trudna itp.

Jak to więc jest z punktu widzenia informatyka?

Najpierw jakie wg mnie są zalety posiadania Linuxa na pulpicie:
  1. Generalnie mówiąc popularne dystrybucje Linuxa są w zdecydowanej większości darmowe, nie potrzebujemy wykupywać licencji - więc pod względem ceny jest to na pewno bardzo atrakcyjna propozycja, zwłaszcza że za darmo zyskujemy praktycznie kompletne i legalne środowisko do pracy, typowego korzystania z Internetu czy nawet zabawy.
  2. Wg mnie kolejną zaletą rozwiązań linuxowych na pulpit jest to że w teorii istnieje może kilka wirusów (w sensie rozumianym na Windowsie), ale w praktyce osobiście jeszcze się nie spotkałem z typowym "windowsowym" zawirusowanie Linuxa. Nie wspominam tu oczywiście o atakach na serwery liuxowe, gdzie rzeczywiście można spotkać rootkity/trojany ale to "zawdzięczamy raczej faktowi wystawienia tych serwerów na świat czy braku aktualizacji systemu serwera czy serwowanych przez niego stron. Tak więc środowisko Linuxa na pulpicie można uznać chyba za dużo bezpieczniejsze niż statystyczne środowisko Windows, zwłaszcza gdy porównujemy to do Windows XP, który był statystycznie dość podatny na infekcje.
    Oczywiście znajdziemy również oprogramowanie antywirusowe na Linuxa od wiodących producentów a także bez względu na stosowany system operacyjny, powinniśmy uważać na niebezpieczne strony www bo pomysłowość twórców złośliwego oprogramowania nie zna granic.
  3. Następną zaletą zastosowania którejś z dystrybucji linuxowych na zamiast Windowsa na desktopie jest dużo mniejszy poziom wymagań sprzętowych niż niektóre wersje Windowsa (zwłaszcza Vista) i w efekcie może się okazać że nasz komputer sprzed kilku lat będzie działał całkiem sprawnie, lepiej niż w wymagających (zwłaszcza pod względem wykorzystywanej ilości pamięci RAM) systemach Microsoftu.
  4. Jeśli mówimy już o wydajności to pamiętajmy o kolejnej fajnej opcji, jaką dają nam systemy linuxowe - możemy używać różnych wersji pulpitu. To zjawisko najczęściej całkowicie obce użytkownikom, którzy przez cały czas korzystali z Windowsa (gdzie jest jedno środowisko graficzne i alternatywy praktycznie nie są znane, choć technicznie są możliwe).
    Oznacza to że w momencie logowania się do komputera wybieramy z jakiego menedżera pulpitu chcemy korzystać - jeśli mamy ochotę popatrzeć na wodotryski i pełne gadżetów pupity, wybieramy odpowiednią "wersję" pulpitu, natomiast gdy cenimy sobie prostotę i minimalizm, możemy wybrać środowisko bardzo minimalistyczne, zużywające niewielką liczbę zasobów - co świetnie się sprawdza właśnie na komputerach o mniejszych możliwościach.
    Innymi słowy - jest pełna swoboda w wyborze pulpitu i nie jesteśmy skazani na jeden, domyślnie uznany przez producenta za słuszny.
  5. Zdecydowana większość oprogramowania, które znajdujemy w praktycznie każdej dystrybucji Linuxa, to oprogramowanie open source lub freeware. To oznacza że raczej jest ono wolne od oprogramowania szpiegowskiego czy zbierającego dane marketingowo-statystyczne.
    To dwie zalety w jednym - z jednej strony lepiej chronimy naszą prywatność, z drugiej strony każde oprogramowanie, które w środowisku Windows zbiera dane o nas czy naszych działaniach, upodobaniach itp., również zużywa zasoby komputera czy korzysta z łącza do Internetu. Korzystając z Linuxa nasz komputer ma więcej zasobów na działania, które my mu zlecamy, nie marnuje zasobów na śledzenie naszej aktywności.
  6. Zdecydowana większość oprogramowania w świecie Linuxa to wolne oprogramowanie open source lub freeware. Nie spotkamy tu wiele adware, tak powszechnego w świecie Windowsa (wyświetlanie reklam oraz zbieranie informacji o użytkownikach programu).
    Oczywiście to się stopniowo zmienia i wydawcy niektórych dystrybucji jak Ubuntu stawiają coraz bardziej odważne kroki w rozwoju marketów z aplikacjami - analogicznie jak to wygląda w przypadku Apple i Androida. Jednak aplikacje płatne są na razie niezbyt liczne i można je potraktować trochę jak "ekstrasy". Zresztą często są warte swojej ceny.
    Tak czy inaczej - do normalnej pracy na komputerze wystarcza właśnie ta darmowa większość.
  7. Najpopularniejsze dystrybucje Linuxa mają o niebo lepiej zorganizowany system zarządzania oprogramowanie niż można to zauważyć w Windowsie.
    Nie ma tu zatem sytuacji gdzie każdy program sobie śmieci po systemie jak mu pasuje. Jest cały system zarządzania pakietami, który dokładnie pilnuje gdzie znajduje się każdy z plików, które zostawił każdy z programów. Jest to jeden spójny system, który nie pozwala na samowolę programów w tym zakresie i zostawianie po sobie zaśmieconego systemu.
  8. Czy na Linuxie można pograć czy obejrzeć film, posłuchać radia itp.?
    Odnośnie multimediów to jak najbardziej, stwierdziłbym nawet że często odpowiednie aplikacje do tego są zainstalowane "na dzień dobry". Odnośnie grania to sytuacja jest coraz lepsza wraz z momentem wydania na Linuxa platformy Steam. Nie oznacza to automatycznie że wszystkie gry ze Steam windowsowego zadziałają od razu na Linuxie ale z każdym dniem tych gier pojawia się więcej.
Ale ponieważ nie ma róży bez kolców, więc nie ma też i systemu bez wad - w aspekcie porównania ogólnych cech popularnych dystrybucji Linuxa z systemem Windows:
  1. Z racji tego że jest to jednak całkiem inny system, inne jądro systemu, inne biblioteki czy podejście do sterowników, nie zainstalujemy na nim programu tej samej windowsowej wersji programu, którego instalujemy pod Windows. Mam tu na myśli to że nie możemy pobrać czy przynieść na płytce pakietu instalacyjnego danego programu pod Windows i tak po prostu zainstalować w dystrybucji Linuxa. Musimy znaleźć wersję pod Linuxa, a jeśli jej nie ma to jakiś zamiennik tego programu.
    Oczywiście są linuxowe wersje większości programów albo zamienniki, ale piszę to pod kątem osób, które mogłyby by wpaść na skrót myślowy typu "zainstaluje sobie Ubuntu, wezmę płytki Microsoft Office i Płatnika ZUS i je też zainstaluje".
  2. Część taniego sprzętu jak drukarki czy skanery ma sterowniki od producenta tylko pod Windowsa i Mac'a. Uruchomienie go pod Linuxem nie jest niemożliwe ale czasami polega na wykorzystaniu poradników ludzi którzy sporo się nakombinowali aby uruchomić pod Linuxem dane urządzenie. W takich przypadkach nie jest to po prostu plug'n'play jak pod Windowsem.
  3. Sporo producentów sprzętu czy oprogramowania jeszcze nie  traktuje Linuxa poważnie, nie wypuszcza wersji oprogramowania pod ten system. To się jednak dość szybko zmienia na korzyść Linuxa bo coraz więcej firm widzi w użytkownikach Linuxa potencjalne źródło przyszłych zysków - choć to oznacza że takie produkty niekoniecznie muszą być darmowe - zgodnie z polityką danego procenta.
Podsumowując - komu wg mnie przyda się Linux na pulpicie?

+ osobom które na co dzień korzystają z komputera do generalnie pojętego używania Internetu - czyli poczta, strony www, zakupy online, bankowość internetowa, komunikatory, portale społecznościowe itp.

+ osobom, które korzystają z komputera jak powyżej i do tego mają na głowie kwestię legalizacji Windowsa (czyli np. pirackiego XP, którego chcą zastąpić innym, legalnym systemem),
 
+ osobom które nie chcą płacić za system Microsoftu (albo w cenie sprzętu albo jako zakup dodatkowej licencji) i nie potrzebują do pracy czy korzystania z komputera aplikacji specyficznych dla Windowsa,
 
+ osobom, którym nie wystarczy zwykły pulpit Windows, brakuje mu pewnych funkcjonalności jak gadżety pogodowe, integrujące z sieciami społecznościowymi czy usługami Google,

+ pracownikom firm, gdzie do pracy wystarczy wspomniane już korzystanie z Internetu, a dodatkowo kierownictwo firmy chce się zabezpieczyć przed próbami wykorzystania przez pracowników takiego komputera do celów innych niż zawodowe. Sam fakt "inności" systemu często wystarczy jako element zniechęcający do takich prób. Poza tym na Linuxie łatwiej jest stworzyć odpowiednie ograniczenia bez dedykowanego, z reguły płatnego oprogramowania.
 
+ osobom zajmującym się obróbką dźwięku czy grafiki w oparciu o darmowe czy otwarte oprogramowanie - jest wiele narzędzi do tego służących w środowisku linuxowym,

+ wszelkim amatorom darmowego czy otwartego oprogramowania - pod Linuxem jest go bowiem znacząco więcej niż pod Windows. Zresztą większość open source, jakie znamy na Windows, narodziło się w świecie Linuxa a dopiero potem ktoś zrobił wersje Windows.

Komu bym nie polecał Linuxa?
 
Właściwie nie ma takiej osoby, która z chociażby przejściowego kontaktu z Linuxem nie wyniesie czegoś dobrego. Jednak pewne  jego zastosowania mogą być pełne wyzwań i właściwie opłaca się bardziej zapłacić za Windowsa. Przykłady poniżej:

- wszelkie zastosowania księgowe/kadrowe oraz miejsca gdzie używa się dedykowanego oprogramowania, nie posiadającego wersji linuxowej - czyli wszelkie programy księgowe i oparte na nich pakiety ERP dedykowane pod Windows, Płatnik z ZUS czy inne programy, które są dość popularne w Polsce wśród księgowych czy kadrowych.

- wszelkie miejsca gdzie do pracy konieczne jest oprogramowanie graficzne czy projektowe producentów Adobe, Corel, Autodesk itp. Na chwilę obecną nie słyszałem bowiem o skutecznym i wspieranym przez producenta uruchomieniu tych programów pod Linuxem.
Są oczywiście narzędzia (jak Wine czy PlayOnLinux), które pozwalają uruchomić znaczną ilość programów dla Windows, jednak w przypadku tak poważnych zastosowań jak prace projektowe czy graficzne, nie chciałbym nikomu gwarantować stabilności takich rozwiązań.

- miejsca gdzie wymaga się wykorzystania pakietu Microsoft Office w zakresie nie oferowanym przez darmowe odpowiedniki (np. Exchange, dokumenty ze złożonymi makrami czy dedykowanymi dodatkami).
 
Zachęcam więc do sprawdzenia jak sami czujemy się w tym systemie.
Oczywiście w przypadku osób nie mających doświadczenia z partycjonowaniem dysku czy instalacją Linuxa, najlepiej poprosić kogoś o pomoc, sprawdzić to w maszynie wirtualnej albo przy pomocy odpowiedniego kreatora instalacji, dostarczonego przez twórców danej dystrybucji. Niezbędne będzie też uprzednie zrobienie kopii bezpieczeństwa własnych danych.
Nieumiejętne operowanie partycjami (własnoręczne zakładanie partycji dla Linuxa czy wygospodarowywanie miejsca na taką instalację poprzez zmniejszenie partycji Windows) może skończyć się bezpowrotną utratą naszych danych.

środa, 3 lipca 2013

O informatykach-jasnowidzach, informatykach-kosmitach i innych mitach w IT...

Zmieniamy tematykę...
 
Dzisiaj coś o informatykach i o kilku mitach z nimi związanych.
 
Sam będąc informatykiem, postanowiłem opisać kilka typowych sytuacji i obalić kilka mitów. Mam wrażenie że będzie to ciekawa lektura dla osób, które do tej pory miały przynajmniej kilka sytuacji gdy nie mogły się porozumieć z informatykiem albo czuły się zawiedzone po wykonaniu przez kogoś usługi informatycznej.

Ktoś może stwierdzić "to nie mój problem że nie mogę dogadać się z informatykiem" - niby tak, z tym że na takim nie dogadaniu się najczęściej tracimy my, zlecający a nie sam informatyk. 

A więc lecimy po kolei...
  1. Informatyk – jasnowidz. To wg mnie jeden z najczęstszych mitów.
     
    Nie wiem skąd ten mit się wziął, ale podejrzewam wszelakie filmy rodem z Hollywood, gdzie genialny hacker czy specjalista od IT, kilkoma wciśnięciami klawiszy, namierza poszukiwanego na drugim końcu świata, podłącza się do ulicznych kamer monitoringu, dostaje się do zabezpieczonej hasłem kartoteki osobowej, konta bankowego czy przejmuje dowodzenie nad całym systemem obrony.  Albo jak filmowy Neo przejmuje kontrolę nad Matrixem…
    Drugim źródłem tego mitu mogą być już bardziej realne sytuacje z życia wzięte, gdzie czasami zdarza się, że informatyk podłącza się zdalnie do naszego komputera, widzi nasz pulpit czy sterując nim, pomaga rozwiązać nasz problem. Więc zaczyna nam się wydawać że rzeczywiście widzi wszystko, może wszystko, wie wszystko...
     
    A jak jest naprawdę? O ile pierwszy, hollywoodzki obraz raczej bym odłożył na bok i nim się tu nie zajmował, to druga sytuacja jest dobrym przykładem aby pokazać jak to działa w życiu „w realu”.
     
    Przykłady? Proszę bardzo :)
     
    - „Dzień dobry, dlaczego mi tu wyskakuję błąd?” – zaczyna rozmowę z informatykiem przez telefon zirytowany użytkownik X, wychodzący z założenia, że wszechwidzący i wszechwiedzący informatyk cały czas śledzi jego pulpit (pewnie od samego rana), zna każdy jego ruch więc pewnie już zna odpowiedź.
    - „Dzień dobry, a jaka jest treść błędu?” – pyta informatyk, który dopiero co wygrzebał się z innej sprawy i nie ma pojęcia że użytkownik X ma jakiś problem, a tym bardziej na czym on polega. Dopiero odebrał od niego telefon...
    - „No... nie wiem... Zamknąłem go już, tam był jakiś error... Ale to nie ja jestem informatykiem, dlatego pytam się Pana...” – user X nie mówi tego złośliwie ale sam ma wrażenie że stał się obiektem złośliwości – dlaczego ktoś się pyta go o coś, o czym i tak na pewno wie bo jest wszechwiedzący? Gra na zwłokę?
    - „Aby Panu pomóc potrzebna jest mi treść tego błędu” – próbuje wyjaśniać informatyk, zastanawiając się skąd tu wziąć informację o tym co tam faktycznie na ekranie wyskoczyło...
    - „Myślałem że mi Pan pomoże…” – mówi użytkownik X, już prawie pewny że odmawia mu się pomocy, bo przecież informatycy wiedzą wszystko a skoro ten konkretny nie chce to musi być złośliwość...

    W sumie proste nieporozumienie ale jednak informatyczna codzienność... W tym przykładzie informatyk naprawdę nie wie, jaki błąd na ekranie zobaczył użytkownik X i nie zawsze ma możliwość sprawdzić na jego komputerze co dokładnie się stało.
    Z kolei odnoszący wrażenie złego potraktowania użytkownik X, jest święcie przekonany że informatyk dokładnie zna przyczynę problemu tylko nie chce mu się udzielić odpowiedzi, celowo utrudnia, chce pokazać swoją wyższość albo jest darmozjadem, który tylko bierze pieniądze za „nic nierobienie”...

    Żeby było jeszcze ciekawiej, tu nikt nie chce źle ale po prostu brakuje odpowiedniej wymiany informacji. Przyjmowane są pewne skróty myślowe, szablony i to właśnie one decydują o trudności w porozumieniu się.
    Jeden ze znajomych administratorów, aby pokazać klientom dysproporcję w takiej sytuacji, szczerze odpowiadał „Szklaną kulę zostawiłem w domu”...
    Wyjaśnienie jest w zasadzie jedno.
    W zależności od sytuacji, programu, jego producenta, systemu operacyjnego i jego wersji, komputera, miejsca instalacji tego komputera, dostępu do Internetu i jego konfiguracji możliwe jest aby sprawdzić wprost przyczynę danego problemu albo nie i wymaga to dłuższego dochodzenia.
    Informatyk wie "kiedy jest tak, kiedy inaczej", a osobie "nie informatycznej" pozostaje przyjąć że czasami się da to ustalić od razu a czasem trzeba trochę poszperać, poszukać...

    Bywa że trzeba skojarzyć sporo faktów, dopytać o wcześniejsze zdarzenia, o których wie tylko użytkownik, pomóc mu sobie przypomnieć niektóre z nich. Dopiero wtedy ma się elementy układanki, które składa się w całość i można postawić diagnozę co dolega komputerowi.
    A czasami nie ma się wcale wszystkich niezbędnych informacji i wtedy można tylko zgadywać czy obstawiać co powoduje dany problem...

  2. Informatyk - kosmita z innej planety.Często spotykamy się z ogólną opinią że informatycy żyją w swoim świecie, nie można się z nimi dogadać, a jak już się zaczyna rozmawiać to wszystko co powiedzą, jest tak "informatyczne" że nawet jeśli brzmi znajomo i zrozumiale to i tak nie wiadomo o co chodzi - bo powiedział to informatyk :)

    Oczywiście nie wszyscy tak reagują, ale często zdarza nam się podczas rozmów z klientami iż mamy wrażenie że to co mówimy traktowane jest w szczególny sposób, choć my nie mówimy nic szczególnego. Nie operujemy żadnymi terminami informatycznymi.

    Dochodzi nawet do tego że mówimy "po przetłumaczeniu z informatycznego na ludzki to znaczy to..."  - dopiero wtedy te same słowa brzmią dla rozmówcy jakoś przejrzyściej i pojawia się uśmiech zrozumienia na twarzy naszego rozmówcy :)

    W praktyce jest tak że często od informatyka oczekuje się streszczenia w jednym zdaniu wielu różnych złożonych pojęć i relacji między urządzeniami, programami czy komputerami w sieci (i to nie jest jeszcze problem bo syntetycznie myśleć można), lecz do tego dochodzi konieczność zawarcia w tym jednym zdaniu całej wiedzy informatycznej, która jest niezbędna do zrozumienia tych informacji przez osobę nieinformatyczną.
    Bo jak tu odpowiedzieć klientowi kiedy serwer będzie z powrotem działał gdy faktyczny czas uruchomienia zależy od zjawiska całkowicie niematerialnego i siedzącego "w bebechach" systemu operacyjnego, zdarzającego się raz na 4 lata a być może związanego z błędem programisty, który u producenta pisał dany kawałek kodu i tak naprawdę często będącego sprawą typu "Z Archiwum X"?

    Sorry - w tego typu przypadkach prościej jest streścić całą brazylijską lub meksykańską telenowelę, nadawaną przez 10 lat, w dwóch słowach... :)

    I w tym trudnym momencie pojawiają się dwa podejścia do problemu od strony informatyków: jedni zaczynają mówić językiem informatycznym i mają nadzieję ze ktoś to zrozumie (najczęściej nie) i pewnie to jest źródłem tego mitu.
    Inni starają się tłumaczyć na "ludzki" mówiąc do klienta... To też nie zawsze wychodzi i pewnie od tego podejścia pochodzi kolejny mit...

  3. Informatyk - człowiek niekonkretny...
    Kolejny mit choć podobno w każdym micie jest ziarenko prawdy...

    Czy zauważyliście może że informatycy często zmieniają zdanie jeśli biorą się do jakiejś roboty?
    Pytacie ich "Ile to potrwa?" - admin na to "jeszcze pół godziny...".
    Przychodzicie za godzinę i pytacie o to samo. Nagle z 30 minut robią się dwie godziny, za dwie godziny jest już pół dnia, a za 4 godziny słyszycie "może do jutra"... Znany obraz? Chyba tak ;)
    Oszuści, darmozjady, krętacze? Nic podobnego choć rzeczywiście wymiana informacji nie jest w takich sprawach dobra i każda ze stron może mieć gruntownie inną ocenę tej sytuacji :)

    Najważniejsza zakulisowa informacja - informatyk podczas swojej pracy nie zawsze robi wszystko sam...
    Bardzo często efekty jego pracy to tak naprawdę efekty uruchomienia jakiegoś programu, który ma za zadanie zrobić to czy tamto... Czyli chcąc osiągnąć jakiś efekt, uruchamiam gotowy program który ma go osiągnąć dla mnie. Sam nie byłbym w stanie napisać takiego programu w 30 minut, ale pobranie go, zainstalowanie go i uruchomienie to rzeczywiście 5 minut. Zakładam że dalsza robota zajmie programowi kolejne 10 minut. Dlatego obiecuję komuś pół godziny...
    Cały ambaras w tym że programy też piszą ludzie więc zdarza się że nasz program-podwykonawca zrobi coś nie tak albo to co miał zrobić w 10 minut, robi w 140 minut... Ktoś po prostu nie przewidział zadania, które ja zafundowałem takiemu programowi.
    Problem największy w tym jako to wytłumaczyć zleceniodawcy, który cały czas myśli że to my sami "tymi ręcami" przestawiamy bity czy bajty w pamięci komputera...

    Robi się więc ZONK! gdy wychodzi np. że my staramy się zmusić zewnętrzne narzędzie do zrobienia tego co zlecił nam zleceniodawca a ono nie wiadomo dlaczego nie chce współpracować, wyświetla komunikaty, których jeszcze nie widzieliśmy, wiesza się w niespodziewanych momentach i robi inne, mało spodziewane rzeczy.
    Dlatego też tak często zmieniamy zdanie - na pytanie "na kiedy" podajemy po prostu aktualny stan prac i postępu - na daną chwilę.
    A że ten stan się zmienia z każdą operacją to nam, informatykom, wydaje się oczywiste...
    Innym niekoniecznie...

    Rozumiem jednak skąd może się brać brak zrozumienia. Pewne branże są bardziej przewidywalne.
    Jeśli przykładowo (żadnej urazy czy krytyki!) płytkarz bierze zlecenie na kafelki w łazience, to rzeczywiście może być zaskakujące dlaczego nagle w trakcie prac zmieniłby się gruntownie termin realizacji o 2 miesiące lub koszt tych prac o 400%.
    Niestety w IT często kafelkowanie łazienki 4 x 2 m okazuje się w rzeczywistości kładzeniem płytek w pałacu o 20 łazienkach... :)

  4. Informatyk - mega niedostępny człowiek widmo na którego wizytę czeka się godzinami czy dniami.
    To też bardzo często spotykane stwierdzenie.

    Sporo osób potrzebujących pomocy informatycznej, spodziewa się że informatyk to ktoś w rodzaju kelnera - powinien pojawić się w mgnieniu oka gdy go potrzebujemy, szybko zrealizować nasze zlecenie i nie zadawać zbędnych pytań.
    Jednak w realu bywa inaczej i informatyk (etatowy czy z zewnętrznej firmy) to ktoś, do kogo trafia często dość dużo tematów, nierzadko jednocześnie. W efekcie gdy łapiemy go telefonicznie, najcześciej trafiamy w moment gdy już walczy z innym, wcześniejszym tematem, nierzadko dwoma naraz. 
    Jeśli bardzo chce załatwiać wszystkie sprawy naraz, pewnie weźmie i Wasz temat, jednak wiadomo jak to jest gdy się robi kilka rzeczy naraz - albo można się pomylić, albo zrobić którąś z nich niedokładnie lecz na pewno nie będzie to sprawne działanie.
    Inni podejdą może inaczej i ustawią takie zlecenia w kolejkę, robią naraz tylko jedną sprawę, dopiero jak domkną jakiś odcinek, przerzucają się na następny temat. Mam wrażenie że zaliczam się do tej drugiej grupy. 
    Takie podejście często skutkuje tym że sprawa musi troszkę odczekać na swoją kolej - ale chyba lepiej zrobić coś dobrze choć trochę później niż zrobić coś byle jak albo co gorsza, popełnić jakiś błąd - a błędy w informatyce bywają bardzo kosztowne...

    Inna sprawa że z tą realizacją tematu od ręki też bywa różnie - sporo problemów informatycznych nie daje się rozwiązać w 5 minut i wymaga przygotowań lub nie może zostać zrealizowanych w godzinach pracy.
Czy mógłbym coś doradzić tym, którzy nie mogą z jakiegoś powodu skutecznie porozumieć się z informatykiem? 
Na pewno to aby na ile to możliwe spróbować zapoznać się z realiami pracy tej grupy zawodowej, postawić się trochę na ich miejscu, zastosować się do ich próśb, dostarczyć niezbędnych danych. Jednak ważne jest również abyśmy przekazywali informacje na temat priorytetów swojej pracy czy celu korzystania z komputera, sieci komputerowej lub serwera. 
Informatycy bowiem nie zawsze znają te Wasze realia czy priorytety, więc bywa że dochodzi do nieporozumień i problemy nie są usuwane w sposób najmniej kolidujący z Waszym sposobem działania.

Outsourcing informatyczny IT - a co to takiego ?

Obecna sytuacja gospodarcza wymusza na niejednym przedsiębiorcy czy osobie decyzyjnej w firmie bądź instytucji konieczność redukcji kosztów. Jednym z obszarów gdzie staje się to możliwe jest opieka informatyczna firmy. Decyzja o obniżeniu kosztów obsługi informatycznej może być dla kierownictwa decyzją dość trudną ponieważ:
  • gdy jakikolwiek składnik systemu informatycznego zaczyna szwankować, pomoc informatyka staje się niezbędna i to najczęściej natychmiast. W związku z tym większość firm czy instytucji decyduje się opłacać etat informatyka aby zapewnić jego ciągłą dostępność. Jednak w sytuacji gdy awarie są sporadyczne, ich usuwanie nie wypełnia przecież całego etatu - a więc podmiot ponosi koszty znacznie wyższe niż koszty faktycznej pracy informatycznej,  
  • z drugiej strony rezygnacja z etatu informatyka zmusza właścicieli czy dyrektorów do przekazania rozwiązywania wszelkich trudnych sytuacji informatycznych w ręce osób, które mają częściową, niepełną wiedzę informatyczną (czasami nawet dość przypadkową) - co w większości skutkuje nieefektywnymi działaniami, nie przynoszącymi efektów firmie.  
Złotym środkiem staje się tutaj wsparcie profesjonalisty, rozliczane wg faktycznie wykonanej pracy. I to właśnie oznacza usługa outsourcingu informatycznego (IT), oferowana także przez SysMedic czyli przez konkretnie osoby: +Wojciecha Kaczmarka i +Macieja Urbaniaka
Jeśli chcą Państwo:
  • nie ponosić kosztów związanych z utrzymaniem etatu informatycznego w firmie,
  • otrzymać szybko profesjonalną pomoc informatyczną w przypadku awarii czy niespodziewanych problemów,
  • otrzymać kompleksową i bieżącą opiekę informatyczną,
  • skorzystać z naszych usług doradczych w zakresie rozwoju infrastruktury informatycznej, zakupu sprzętu czy oprogramowania, zastosowania zabezpieczeń w Państwa firmie itp.,
  • wdrożyć oczekiwane rozwiązania informatyczne skutecznie i efektywnie.
Zapraszamy do kontaktu - po analizie Państwa potrzeb sporządzimy dla Państwa wycenę świadczenia usługi outsourcingu informatycznego (IT) a także uczynimy ją jeszcze bardziej atrakcyjną poprzez negocjacje.

Ratunku, mam Windows 8 w komputerze - co robić

“Ratunku, mam Windows 8 w komputerze - co robić?”

Tak właśnie może wyglądać reakcja wielu osób, przyzwyczajonych do klasycznego sposobu obsługi systemu operacyjnego po bliższym spotkaniu z nowym produktem Microsoftu czyli Windows 8.
 
Wbrew tytułowi, wcale nie zamierzam udowadniać że Windows 7 czy Windows XP były lepsze, czy też Windows 8 jest gorszy. Każdy z tych systemów jest przydatny a moim zadaniem jest przybliżyć jak bezproblemowo przesiąść się na Windows 8. Oczywiście przybliżenie wszystkich informacji o Windows 8 to nie jest to temat na jeden wpis, tutaj chcę się skupić na tych najważniejszych z punktu widzenia osoby przyzwyczajonej do wcześniejszych wersji systemu Windows a obecnie stojącej przed opcją czy koniecznością zmiany na Windows 8 na typowym PC czy laptopie.
 
Zaznaczam też że wszystkie poniższe informacje to moje własne obserwacje - oficjalny materiał dotyczący tego systemu może wskazywać więcej cech godnych uwagi albo podkreślać zupełnie inne cechy niż ja.
 
Innymi słowy - opisuję to co mi wpadło w oko i co mi osobiście przypadło do gustu.
 
Przede wszystkim proponuję nie wpadać w panikę i nie martwić się na zapas a raczej przyjrzeć się dokładnie temu, co się zmieniło w Windows 8 i dostrzec co te zmiany wnoszą dobrego.
 
Windows 8 nie jest tak bardzo różny od jego poprzedników, jak się na pierwszy rzut oka wydaje. Za jego pomocą nadal można osiągać to samo, co wcześniej robiliśmy za pomocą Windows 7, Vista czy XP. Możemy osiągnąć nawet więcej jeśli dostrzeżemy jego zalety czy nowe funkcje, a w niektórych sytuacjach daje się zauważyć wyższą wydajność Windows 8 względem poprzedników.
 
Zmienił się mechanizm uruchamiania programów - czyli zamiast Menu Start na pulpicie mamy ekran Metro z prostokątami, oznaczającym poszczególne aplikacje czyli “kafelki” na pełnym ekranie poza pulpitem.
 
Jednak nadal po staremu możemy dodać ulubiony program do paska zadań czy jako skrót na pulpit. Dodatkowo - uruchomienie aplikacji “z kafelka” często przenosi nas z powrotem na pulpit gdzie już w tradycyjny sposób obsługujemy aplikacje. Czyli wcale nie jest tak bardzo “inaczej” niż na początku to wygląda...
 
Pozornie brakuje menu start a część funkcji osiągalna jest dopiero po najechaniu kursorem myszki w jeden z rogów ekranu. Takie zmiany rzeczywiście na pierwszy rzut oka mogą przerażać, bo dla wielu osób Menu start jest podstawą korzystania z komputera a nagle pojawiające się i znikające opcje dodatkowe, ukryte pod narożnikami ekranu, mogą wprowadzać sporo zamieszania.
 
Jednak jak się okazuje, funkcjonalność Menu Start nadal jest dostępna - tylko że trochę inaczej:
  • metoda 1: wystarczy że kursor myszki przesuniemy w lewy dolny róg ekranu, pojawi się nam miniaturka ekranu z kafelkami i po jej kliknięciu trafiamy na ekran Metro gdzie możemy wybrać sobie aplikację do uruchomienia,
  • metoda 2: wciśnięcie na klawiaturze przycisku z logiem Windows i wpisanie w polu wyszukiwania początku nazwy poszukiwanej aplikacji. Najczęściej już po kilku wprowadzonych znakach system zaproponuje właściwą aplikację.
  • kolejną opcją staje się oprogramowanie Classic Shell jeśli jednak totalnie brakuje nam Menu Start i nie jesteśmy w stanie zaakceptować zmienionego sposobu uruchamiania programów, proponowanego przez Windows 8.
    Jest to bezpłatny, zewnętrzny program, pozwalający uzyskać bardziej typowe menu startowe, zbliżone wyglądem do tradycyjnego menu, mające parę udogodnień a jednocześnie nie wykluczające korzystania z aplikacji Metro.
Zamykanie systemu też gdzieś wyparowało? Nie, jest tylko w innym miejscu.
 
Gdy udamy się myszką do prawego dolnego rogu ekranu, pojawi się całe “latające” menu wraz z zegarem. Jednym z elementów jest specyficzny “trybik” czy ustawienia. Najprościej mówiąc - te ustawienia tyczą się często bezpośrednio tego co mamy na ekranie (czyli np. opcji danej aplikacji Metro) ale znajdziemy też tam symbol oznaczający zamykanie czy ponowne uruchamianie systemu Windows. Oczywiście działa też bardziej tradycyjna metoda zamykania programów czy systemu - lewy ALT+F4.
 
 O co chodzi z tymi pełnoekranowymi aplikacjami Metro?
 
W Windows 8 kolejną nowością jest to, że oprócz klasycznych programów, uruchamianych w ramach typowego pulpitu, możemy uruchomić aplikacje, działające w trybie pełnoekranowym, działające zamiennie z typowym pulpitem i przypominające bardziej rozwiązania ze smartfonów czy tabletów niż typowe programy z systemu Windows. To na początku może wydawać się utrudnieniem, ale jak się przyjrzeć bliżej, ma to szereg zalet:
  • aplikacje pełnoekranowe Metro są tak skonstruowane, że pozwalają się łatwo skupić tylko na jednym zadaniu (np. pisaniu maila) - aplikacje zajmują cały ekran, są często bardzo czytelne, z dużymi literami, kontrastowymi kolorami, żadnych dodatkowych ozdobników rozpraszających uwagę - dosłownie czarno na białym. Nie trzeba chyba wyjaśniać jakie to ma znaczenie na małym ekranie albo ekranie z bardzo dużą rozdzielczością, gdzie typowe czcionki są bardzo małe,
  • widoczny obszar ekranu możemy podzielić pomiędzy pulpit a taką właśnie aplikacją - to bardzo ułatwia pracę - czyli możemy na większej części ekranu w ramach typowego pulpitu pracować np. w arkuszu kalkulacyjnym czy przeglądać Internet a w wąskim pasku po lewej czy prawej stronie czatować na Skype. To już nie jest jeden ekran z dwoma oknami - to są jakby dwa ekrany obok siebie.
  • jednym ruchem myszki do lewego górnego rogu ekranu możemy przeskoczyć pomiędzy aplikacją pełnoekranową a typowym pulpitem i z powrotem albo do innej aplikacji pełnoekranowej - czyli pomimo że często na ekranie mamy tylko jedną aplikację, łatwo jest przełączyć się na inną. To na pewno docenią osoby, które mają coraz więcej doświadczeń ze smartfonami.
  • zauważyłem że dość często w ramach różnych aplikacji Metro działa mechanizm sprawdzania pisowni, również w języku polskim - jak dla mnie bardzo przydatna opcja. 
  • aplikacje Metro, przekazujące nam jakieś kluczowe informacje, pokazują te najistotniejsze na ekranie Metro w ramach danego kafelka - czyli np. aplikacja pogodowa w ramach swojego kafelka na ekranie Metro, pokazuje aktualną temperaturę czy pogodę w naszej ulubionej lokalizacji już na liście aplikacji - w efekcie często nie musimy nawet uruchamiać danej aplikacji aby uzyskać najważniejsze informacje.
    Jeśli ten fakt powiążemy z możliwością poukładania kafelków na ekranie Metro tak jak chcemy, dostajemy niezłe centrum sterowania, gdzie od razu po zalogowaniu się dostajemy najważniejsze informacje, a żeby sprawdzić maila, nie musimy w ogóle wykonywać typowych czynności typu “znaleźć program pocztowy w Menu start, uruchomić go i poczekać aż będzie gotowy do pracy i ściągnie pocztę, dopiero w jego oknie dokopać się do danego maila i go przeczytać” - innymi słowy duże ułatwienie. 
  • aplikacje Metro powiązane są z aplikacją Windows Store® - czyli takim odpowiednikiem Google Play® w Androidzie czy Apple Store® w komputerach/urządzeniach Mac.
    W efekcie popularne serwisy jak np. Dobreprogramy czy Goldenline, mamy dostępne również jako aplikację, którą po prostu uruchamiamy “z kafelka” a nie w tradycyjny sposób - czy poprzez stronę www. To również spore ułatwienie jeśli nasz ulubiony serwis przygotował aplikację dla Windows 8.
    Mamy tu kolejny “smartfonowy” ruch ze strony Microsoftu - przecież jeśli w telefonie z Androidem chcemy sprawdzić w sklepie cenę produktu na Ceneo, nie wchodzimy na małym ekraniku na Ceneo przez www, tylko korzystamy z gotowej aplikacji... Taka sama zasada zaczyna przyświecać również twórcom Windowsa - chodzi o skorzystanie z aplikacji a nie o czasami mozolne logowanie się przez stronę www. 
  • wspomniany Windows Store® ma również jedną ogromną zaletę - podobnie jak inne markety aplikacji czy centra oprogramowania w Linuxie, pozwala w jednym miejscu, praktycznie jednym kliknięciem zaktualizować nasze aplikacje. Zauważymy jaka to różnica pomiędzy tradycyjnym podejściem do programów w Windows, gdzie trzeba było aktualizować każdy zewnętrzny program osobno a jedynie produkty Microsoftu aktualizowały się w miarę automatycznie w Windows Update.
 
Windows 8 ma odświeżony i bardziej funkcjonalny Menedżer zadań niż poprzednie wersje systemu.
 
To na pewno docenią wszyscy miłośnicy śledzenia tego jak bardzo nasz komputer wykorzystuje zasoby a także informatycy, diagnozujący problemy z wydajnością komputerów. Jest on jednak na tyle intuicyjny, że osoby przyzwyczajone do poprzedniej wersji, nie będą miały większych problemów z jego wykorzystaniem.
 
Znany wszystkim Windows Explorer to teraz File Explorer, wyposażony dodatkowo w tzw. wstążkę czyli system menu znany przede wszystkich z nowszych wersji Microsoft Office. To pozwala nam łatwiej przeprowadzać operacje na plikach, mamy też możliwość “zapauzowania” działań na pliku jak kopiowanie.
 
Jednak działają również stare przyzwyczajenia typu CTRL-C/CTRL-X i CTRL-V albo menu spod prawego przycisku myszy.
 
Czy coś nie będzie działać pod Windows 8? Takie pytanie na pewno zada wiele osób, doświadczonych różnymi niespodziankami po premierze Visty. Z moich doświadczeń wynika że generalnie coś co działało na Windows 7, będzie również działać na Windows 8 na podobnych zasadach. Podobnie wygląda kwestia wersji systemu (64 czy 32 bitowy) jak wcześniej w Windows 7.
 
Jedyny wyjątek, jaki na razie spotkałem to fakt, że w wersji Professional i wyższych Windows 7, mogliśmy skorzystać z wirtualnej maszyny z Windowsem XP do uruchamiania mniej kompatybilnych, starszych aplikacji. Teraz ta funkcjonalność jakby zniknęła dla odpowiadającej jej wersji Windows 8.
 
Podsumowując - tak jak wspomniałem na początku, tych na pierwszy rzut oka niewidocznych zalet w Windowsie 8 jest dużo więcej. Mi zależało przede wszystkim na pokazaniu jak “nowe” daje większe możliwości przy zachowaniu większości dotychczasowych funkcjonalności “starego”. Chodziło też o pokazanie też tego że przesiadka na Windows 8 wcale nie oznacza automatycznie uczenia się wszystkiego od nowa. Owszem - jest trochę inaczej, zwłaszcza na początku, ale nie oznacza to progu nie do przeskoczenia, a czasami praktycznie nie zauważamy tego progu.
 
Dlatego też polecam zapoznanie się z Windows 8 przy najbliższej okazji aby chociażby wyrobić sobie własne zdanie na temat tego systemu.

wtorek, 2 lipca 2013

Systemy DLP czyli zapobiegamy wyciekowi danych firmowych

 
Wszyscy wiemy jak wielką wartość ma w dzisiejszych czasach informacja. Można chyba zaryzykować stwierdzenie że jest to złoto XXI wieku.

Bez względu na to czy chronimy nasze własne dane osobowe, adres zamieszkania, PIN do karty kredytowej, adres mailowy lub też listę klientów, dane finansowe naszej firmy czy też dane pacjentów w gabinecie medycznym, informacje te są dla nas czy naszej firmy dosłownie na wagę złota.

Co więc możemy zrobić, aby nie dostały się one w niepowołane ręce?

Przede wszystkim powinniśmy się przyjrzeć w jaki sposób zorganizowana jest nasza firma czy instytucja i spróbować postawić się w sytuacji osób, które mogłyby ewentualnie chcieć wejść w posiadanie naszych danych.
Innymi słowy – zastanówmy się jak spróbowalibyśmy ukraść dane z naszej własnej firmy. Najprawdopodobniej dopiero wtedy uświadomimy sobie jak wiele luk, pozwalających na wyciek informacji istnieje w naszym otoczeniu.

Nieuchronnie nasze pierwsze podejrzenie padnie na komputery firmowe i obsługujących ich pracowników. Może nagle uświadomimy sobie że pod pozorem prostych i niewinnie wyglądających czynności robią oni coś niedobrego dla firmy…

Przykładowo:
  • wpięty do komputera służbowego przez kabel USB telefon, smartfon czy odtwarzacz MP3 wcale niekoniecznie tylko się ładuje – może przecież pracować jako pendrive a pracownik może za jego pomocą właśnie wynosić dane z firmy pod pozorem ładowania urządzenia,
  • firmowy aparat fotograficzny to też z punktu widzenia komputera nośnik wymienny… Podróżujący pomiędzy firmą a domem pracownika (np. w ramach wyjazdów w delegacje) może również służyć do wycieku informacji,
  • pracownik, który korzysta z prywatnego Gmaila w firmie, wchodząc na swoją pocztę, uruchamia również dość efektywny własny dysk online za pomocą którego dość łatwo wyprowadzić na zewnątrz firmowe dane,
  • dostęp do portali społecznościowych jak Facebook czy Google+ to z jednej strony miły gest w kierunku naszych pracowników ale również niebezpieczeństwo dla naszej firmy. Przecież w każdej chwili mogą tam opublikować coś co jest tajemnicą firmy – np. projekt kampanii reklamowej, projekt nowego modelu produktu a może jakiś mało smaczny obrazkowy żart firmowy, który do tej pory mieszkał tylko na firmowym intranecie,
  • a może spędza nam sen z oczu fakt, że pracownik w ferworze walki ze swoimi bieżącymi zadaniami, wyśle omyłkowo mailem strategiczny dokument wewnętrzny do klienta, P. Andrzeja, zamiast do P. Andrzeja z działu finansów?
  • wyciek informacji możliwy jest również przy pośrednim udziale pracowników poprzez zainfekowane wirusami czy trojanami komputery firmowe. W tym przypadku pracownik może się do tego „przyczynić” poprzez próby otwarcia na komputerze zainfekowanego nośnika prywatnego czy odwiedzanie różnych niechcianych czy niebezpiecznych stron www, oczywiście nie związanych z zadaniami służbowymi.
To tylko przykładowe sytuacje, które zdarzają się praktycznie codziennie w większości firm. Oczywiście niekoniecznie kończą się one katastrofą dla firmy, ale stanowią potencjalny słaby punkt, który w niesprzyjających okolicznościach mogą doprowadzić do firmowej klęski.
 
Czy jest na to lekarstwo? Co możemy zrobić?
 
Jednym z ważniejszych sposobów ochrony przed wydarzeniami klasy przedstawionej powyżej jest wdrożenie systemu DLP (Data Leak/Leakage/Loss Protection/Prevention), którego głównym zadaniem będzie ochrona naszego systemu przed wyciekiem danych właśnie w analogicznych jak przykładowe, powyższych sytuacjach.
 
System taki ma za zadanie monitorować przepływ informacji na poziomie stacji roboczej i działań podejmowanych przez pracownika, celem wyłapania działań podejrzanych lub w oczywisty sposób zakazanych. W zależności od kwalifikacji zdarzenia i naszych wytycznych system może blokować takie działanie lub tylko nas o nim informować. Niezależnie możliwe jest przechwycenie treści informacji, której operacja dotyczyła aby mieć pełny obraz tego co faktycznie pracownik próbował wysłać, zabrać na pendrive itp.
 
Jednym z systemów, które proponujemy i wdrażamy klientom w takich przypadkach jest system Devicelock. Z pełnymi informacjami na temat jego możliwości możemy zapoznać się na stronach producenta i dystrybutora na terenie Polski.
 
Zapraszamy również do kontaktu z nami w celu ustalenia zakresu i okoliczności planowanego potencjalnego wdrożenia systemu DLP.

Do czego mogą się przydać aplikacje w wersji portable?

Być może wielu z nas zetknęło się juz z tym pojęciem - “aplikacje portable”, “aplikacje na pendrive”, “PortableApps” itp.

Programy “portable” to oprogramowanie dla systemu Windows w odpowiednio przygotowanej wersji, które można łatwo zainstalować sobie na swoim pendrive, dysku przenośnym czy na dysku “chmurowym” i korzystać tam gdzie chcemy - na innych komputerach bez konieczności instalacji tego oprogramowania. Przenoszone w ten sposób programy trzymają swoje ustawienia ze sobą w swoim folderze.
Oznacza to że możemy na pendrive skonfigurować sobie np. program pocztowy w wersji portable i wszędzie gdzie go uruchomimy, będzie on zachowywał się tak jakbyśmy cały czas korzystali ze swojego komputera - będzie pokazywał te same wiadomości, pamiętał ustawienia kont pocztowych czy listę kontaktów. To samo tyczy się oczywiście innego oprogramowania - przeglądarki, komunikatory, programy do odtwarzania multimediów czy synchronizacji danych z “chmurą”, programy narzędziowe, biurowe gry i wiele wiele innych.

Dlaczego aplikacje portable są przydatne?

Jest sporo korzyści z ich używania, wymieniam te, które mi się wydały sensowne:
  • są niezależne od systemu operacyjnego i go nie zaśmiecają - typowe aplikacje często dodają swoje pliki w systemie operacyjnym czy wpisy w rejestrze, aplikacje portable trzymają wszystkie swoje ustawienia w postaci plików w swoim folderze i nie rozrzucają ich w innych miejscach.
    To oznacza że opłaca się używać aplikacji portable nawet wtedy gdy nie potrzebujemy ich formy przenośnej. Wystarczy bowiem że na naszym komputerze stworzymy sobie katalog z aplikacjami portable w naszych dokumentach czy na drugiej partycji dysku i będziemy mogli z nich korzystać jak z tradycyjnych aplikacji - wystarczy skorzystać z menu PortableApps.com albo zrobić skróty do pulpitu czy menu start dla tych aplikacji w ich folderach.
  • gdy aplikacje portable będą zainstalowane na innej partycji, przeinstalowanie systemu operacyjnego bez naruszania zawartości drugiego dysku uchroni nas przez koniecznością ich reinstalacji. Po prostu po ponownym zainstalowaniu systemu operacyjnego, aplikacje portable będą od razu gotowe do użycia - wystarczy je tylko uruchomić przez menu PortableApps.com albo bezpośrednio poprzez ich pliki wykonywalne.
  • analogicznie w przypadku reinstalacji systemu aplikacje portable wystarczy tylko uruchomić gdy są zainstalowane na zewnętrznym nośniku. Nie trzeba uprzednio zabezpieczać i potem przywracać ustawień czy konfiguracji naszych ulubionych programów portable.
  • aplikacje portable mogą być instalowane również na nośnikach szyfrowanych, np. za pomocą programu TrueCrypt - w efekcie otrzymujemy nasze własne, zabezpieczone szyfrowaniem, środowisko pracy - naszą pocztę czy przeglądarki z zapisanymi hasłami i zakładkami, dokumenty, programy biurowe, komunikatory itd. Możemy z niego korzystać nie pozostawiając naszych danych na komputerach, na których uruchamiamy programy z tego nośnika.
  • aplikacje portable łatwo jest zabezpieczyć przy pomocy różnego rodzaju kopii zapasowych - wystarczy że wykonamy kopię folderu Portable, zawierającego naszą instalację aplikacji portable w dowolny sposób - ręcznie lub dowolnym programem do wykonywania kopii zapasowych i potem w razie konieczności czy potrzeby, możemy tą kopię przywrócić,
  • dzięki aplikacjom portable możemy znaleźć wiele darmowych czy działających w ramach licencji open source, odpowiedników programów typowo komercyjnych,
  • środowisko aplikacji portable na pewno docenią informatycy - znacznie ułatwia ono wykonanie różnych prac na serwisowanych komputerach bez instalowania dodatkowego oprogramowania.
Skąd wziąć oprogramowanie portable?

Najprościej - wyszukać w Google nazwę naszej ulubionej aplikacji w połączeniu ze słowem “portable”.

Druga metoda (często będąca wynikiem działania pierwszej) i chyba najczęściej używana to wejście na stronę PortableApps.com i pobranie programu pozwalającego w łatwy sposób zainstalować na naszym nośniku aplikacje przenośne i zarządzać nimi. W efekcie działania tego programu dostajemy gotowy nośnik portable, który dodatkowo uruchamia program PortableApps.com od razu po włożeniu do komputera, który ma ustawione automatyczne uruchamianie nośników wymiennych.

Co jeszcze nam ułatwia program z PortableApps.com?
Kilka spraw:
  • pozwala w łatwy sposób instalować nowe programy portable - na zasadzie wyboru z listy dostępnych po nazwie albo po kategorii,
  • pozwala automatycznie aktualizować już zainstalowane oprogramowanie do nowszych wersji gdy te się pojawią - moje doświadczenie jest takie, że praktycznie codziennie wychodzą jakieś aktualizacje do zestawu zainstalowanych przeze mnie programów. To dużo łatwiejsze niż aktualizować każdy program z osobna.
  • program ten ułatwia także wygodne przechowywanie dokumentów w formie portable, dostępnych z poziomu menu programu PortableApps.com.
  • pozwalała łatwo wyszukiwać potrzebną aplikację wśród już zainstalowanych,
  • pozwala nam zmieniać wygląd menu PortableApps.com do naszych upodobań.
Podsumowując - aplikacje portable, a szczególnie te oparte o platformę PortableApps.com to bardzo wygodna i efektywna alternatywa tradycyjnej instalacji oprogramowania w systemie Windows. Przenośna, nie zaśmiecającą systemu, często bezpieczniejsza, bardziej centralnie zarządzana i łatwa w aktualizacji.
 
 

Routery 3G - czyli internet w namiocie

Kontynuując tematy GSM, dzisiaj coś z pogranicza telefonii komórkowej i dostępu do Internetu. Poniższe pomysły mogą się przydać większości zwykłych użytkowników.

Bierzemy na warsztat routery 3G i zastanawiamy się, co można za ich pomocą ciekawego zrobić.

Najpierw może dla niewtajemniczonych o tym, co to jest router 3G.

Najczęściej jest to niezbyt drogie urządzenie, dostępne razem z typowymi routerami domowymi w sklepach komputerowych czy marketach z elektroniką, ale można też oczywiście kupić go w Internecie.

Bez względu na to czy mamy do czynienia z routerem 3G przenośnym czy stacjonarnym, jego zadanie właściwie jest jedno - umożliwić nam skorzystanie z Internetu poprzez lokalną sieć WiFI tworzoną przez taki router, który z kolei z Internetem łączy się przez modem 3G, wpięty przez USB.

Czyli do gniazda USB routera wpinamy modem USB, router za jego pomocą łączy się z Internetem (jak zwykły komputer) a następnie ten sygnał rozprowadza za pomocą sieci WiFi czy po kablu ethernetowym.

W typowych wersjach stacjonarnych router 3G wygląda podobnie jak zwykły domowy czy biurowy router WiFi, ma antenkę lub antenki, podobną obudowę i podobnie się zarządza przez przeglądarkę internetową. Różni się tym, że najczęściej ma gniazdo USB służące do podłączenia modemu 3G na USB - takiego samego jak się wpina do komputera bezpośrednio.

Przykładowy model stacjonarnego routera 3G to TP-Link TL-MR3420.
Z kolei wśród modeli przenośnych możemy wymienić chociażby TP-Link TL-MR3020 czy ASUS WL-330N3G.

Routery 3G występują również w formie przenośnej i ta forma przynosi nam również wiele korzyści.

Router przenośny najczęściej jest mały - wielkości talii kart lub zbliżony, można go bez problemu schować do kieszeni, ma wbudowaną antenę WiFi, zasilany jest poprzez kabelek USB, który włączamy do portu USB laptopa, komputera stacjonarnego, dodanego zasilacza, przypominającego ładowarkę do telefonu komórkowego - a nawet przy odpowiedniej przejściówce - do gniazda zapalniczki w samochodzie.

Obrazek przedstawiający ruter TP-Link TL-MR3020
Dlaczego dostęp do Internetu przez GSM/3G?

Dobre pytanie :) Jest kilka przyczyn, ale najważniejsze są takie:
  • potrzebujemy przenośnego dostępu do Internetu (w pracy, na uczelni, w życiu prywatnym, w podróży czy na wakacjach),
  • mieszkamy w miejscu gdzie jest problem z dostępem do Internetu od dostawców stacjonarnych albo ich oferta jest niezbyt korzystna, a jednocześnie jest odpowiedni zasięg sieci komórkowej, pozwalający na szybsze transmisje danych,
  • potrzebujemy awaryjnego dostępu do Internetu bo stacjonarny dostęp sprawia problemy techniczne.

Pomysły na zastosowanie routera 3G:
  •  niektóre modele w przypadku awarii łącza stacjonarnego potrafią automatycznie przełączać się pomiędzy stacjonarnym dostępem do Internetu (np. przez kabel Ethernet, z modemu ADSL czy kablówki) a 3G.

    Jest to świetna alternatywa dla biur i firm, gdzie dostęp do Internetu bardzo często decyduje o możliwości funkcjonowania danej firmy. Jednak i w domu to się przyda gdy nasz „kablowy” dostawca Internetu zawodzi.
  • dzięki routerowi 3G możemy w łatwy sposób zapewnić dostęp do Internetu w naszym biurze jeśli nie jest ono zbyt duże (np. do 10 komputerów przy dobrym zasięgu 3G) i mamy problem ze zorganizowaniem tego dostępu od lokalnego operatora po kablu albo jest to biuro tymczasowe.
  • router 3G, bez względu na to czy tylko 3G czy kombinacja kabel/3G, świetnie nadaje się do rozdzielania dostępu do Internetu mobilnego poprzez WiFi czy lokalną sieć LAN - druga to najważniejsza zaleta względem typowego sposobu korzystania z Internetu przenośnego za pomocą wtykania modemu USB bezpośrednio do komputera,
  • zgodnie z tytułem artykułu, można taki router zastosować nawet w nietypowych warunkach jak chociażby właśnie na kempingu gdzie wystarczy że router 3G z modemem zasilimy poprzez odpowiednią przejściówkę z gniazda zapalniczki w samochodzie i przez WiFi mamy w promieniu kilkudziesięciu metrów od auta dostęp do Internetu analogiczny jak w domu czy w biurze.
  • Na tej samej zasadzie możemy również wykorzystać dowolne dostępne źródła stałego zasilania aby stworzyć sobie przenośną sieć WiFi i źródło dostępu do Internetu za pomocą naszego routera 3G.

    Wystarczy bowiem że w schronisku, pensjonacie czy restauracji lub kawiarni, za zgodą właściciela podłączymy nasz router 3G z modemem USB poprzez zasilacz sieciowy do zwykłego gniazdka sieciowego i już mamy naszą własną sieć lokalną cały czas z nami.
  • można oczywiście również taki router 3G zasilać z laptopa poprzez gniazda USB i dzięki temu nawet gdy nie mamy samochodu i źródła stałego zasilania, z Internetu może skorzystać więcej niż tylko jedna osoba.
  • jeśli nasz modem USB nie posiada simlocka, jesteśmy za granicą i potrzebujemy stworzyć sobie nasz własny dostęp do Internetu – wystarczy że w lokalnym sklepie, kiosku itp. nabędziemy „miejscową” kartę SIM prepaid, w ramach oferty umożliwiającej korzystanie z Internetu. Po włożeniu do naszego modemu tej „tubylczej” karty prepaid i przekonfigurowaniu naszego routera 3G wg wytycznych tego miejscowego operatora, nawet w dość egzotycznym kraju, możemy cieszyć się własnym dostępem do Internetu w miejscowej cenie. Oczywiście w takiej sytuacji warto jest zapoznać się z warunkami świadczenia usług przez miejscowego operatora zanim zakupimy taką kartę i zaczniemy z niej korzystać.
 Czy musimy kupować router 3G?

Niekoniecznie :) Często bowiem nosimy go od dawna w swojej kieszeni w postaci naszego smartfona.
Spora ilość urządzeń z Androidem ma taką funkcję udostępniania łącza internetowego poprzez wbudowaną kartę WiFi lub przez kabelek USB.

Podobnych funkcjonalności możemy szukać też gdzie indziej, np. w niektórych modelach Nokia, telefonach z systemem Windows Phone, iPhone od wersji 3G wzwyż, części telefonów Samsunga z systemem Bada a także urządzeniach Blackberry. Najlepiej więc sprawdzić w instrukcji swojego urządzenia czy taka funkcja jest w nim obsługiwana.

Trzeba pamiętać że tutaj jesteśmy ograniczeni pakietem transferu danych typowym dla abonamentu „głosowego” – czyli albo pula ta jest dużo mniejsza niż w typowych pakietach do transmisji danych albo takiego pakietu nie ma uruchomionego wcale i każde połączenie internetowe z naszego telefonu będzie wiązało się z dodatkowymi opłatami – a więc potrzeba najpierw uruchomić taki pakiet danych po stronie operatora.

Przykładowo porównując oferty abonamentowe - jeśli dzisiaj standardem jest ok 5 – 10 GB transferu dla typowej karty SIM, związanej z modemem USB (czyli przeznaczonej do łączenia się z Internetem) to typowy pakiet danych dla smartfona to przeciętnie 0,5 GB miesięcznie. Oznacza to że z takiego dostępu opłaca się korzystać sporadycznie albo do przekazywania niewielkiej ilości danych.

Wyjątkiem są sytuacje gdzie operator pozwala nam wykupić pakiet o większej ilości danych w telefonie, porównywalny z pakietem dla typowego modemu USB.

Na co należy uważać czy zwracać uwagę w przypadku Internetu poprzez 3G/GSM?

Jest kilka spraw, pozornie oczywistych ale dla pewności pozwolę sobie o nich napisać:
  • pakiet transferu danych – zdecydowana większość operatorów w Polsce i za granicą nadal rozlicza nas z ilości wykorzystanych danych w ramach abonamentu miesięcznego czy prepaid. Oznacza to że jeśli go przekroczymy, w zależności od operatora i oferty, stracimy możliwość korzystania z tej transmisji danych, znacznie spadnie jej prędkość do poziomu znacznie utrudniającego korzystanie z takiego dostępu albo nawet poniesiemy dodatkowe opłaty.

    Dlatego też, korzystając z dostępu 3G/GSM, musimy brać pod uwagę jaką ilością transferu dysponujemy oraz fakt że komputery z reguły wykorzystują jej znacznie więcej niż smartfony czy tablety – chociażby dlatego że starają się pobierać aktualizacje systemu Windows czy ładują pełne a nie mobilne wersje stron www.

    Dodatkowo na komputerach często mamy zainstalowane aplikacje trzymające dane „w chmurze” jak Dropbox czy Skydrive i bezpośrednio po uruchomieniu systemu komputer będzie chciał przeprowadzić ich synchronizację, często zużywającą wiele megabajtów danych. To zjawisko się zwielokrotni jeśli wpuścimy do naszej sieci parę osób ze swoimi komputerami.

    Dlatego nasz pakiet transferu danych powinien być dopasowany do takiego zapotrzebowania jakie powstanie w wyniku udostępnienia naszego pakietu internetu mobilnego innym osobom.

    Moje własne, przykładowe obserwacje są takie, że pojedyncza, kilkugodzinna sesja jednego komputera z systemem Windows, polegająca na przeglądaniu stron czy odpisywaniu na maile, bez oglądania filmów na YouTube itp. potrafi „zjeść” kilkaset MB.

    Czyli jeśli wyjeżdżamy na tydzień, planujemy korzystać z routera 3G w 3 osoby to wychodzi nam np. 300 MB x 3 x 7 dni = 6,3 GB co oznacza że powinniśmy zabezpieczyć sobie z zapasem ok 10 GB w naszym pakiecie.
  • roaming i połączenia za granicą – podobnie jak w przypadku telefonów komórkowych, podczas pobytu za granicą czy gdy jesteśmy w obszarach przygranicznych, musimy liczyć się z tym że jeśli nasze urządzenie zarejestruje się w obcej, zagranicznej sieci GSM, wszelkie połączenia mogą wiązać się z dodatkowymi opłatami. To samo tyczy się dostępu do Internetu poprzez modem USB i router 3G. Jeśli chodzi o transmisję danych, opłaty roamingowe mogą być jeszcze wyższe. Tak więc w przypadku gdy istnieje możliwość że nasz modem USB podłączony do routera, spróbuje zarejestrować się w obcej sieci, dobrze jest zabezpieczyć się przed tym faktem poprzez odznaczając możliwość skorzystania z roamingu w konfiguracji routera albo próbując taką blokadę osiągnąć na poziomie naszego operatora komórkowego.

    Podkreślam jeszcze raz jak to ważny aspekt – przy wysokości opłat za transmisję danych w roamingu brak takiego zabezpieczenia może spowodować wzrost naszego rachunku o kilkaset PLN w ciągu krótkiego czasu!
  • zasięg – pomimo licznych zalet dostępu do Internetu poprzez sieć komórkową, ma on jedną wadę – nie wszędzie jest odpowiedni zasięg pozwalający na szybki dostęp albo na dostęp w ogóle. Ponieważ sam router 3G najczęściej nie ma żadnej sygnalizacji na obudowie, mówiącej o poziomie sygnału, dlatego też musimy się bardzo często opierać na informacjach płynących z modemu USB, który sygnalizuje nam ogólnie zasięg i fakt zestawienia połączenia za pomocą odpowiedniego koloru i sposobu świecenia się diody na modemie.
Pamiętajmy też że szybki zasięg 3G to domena przede wszystkim centrów miast, ewentualnie dużych skupisk wsi a w tzw. „głuszy” nie zawsze będzie można mówić o szybkim dostępie do Internetu, raczej możemy cieszyć się w ogóle dostępem do Internetu w trybie 2G. Wyjątkiem mogą być uczęszczane miejscowości turystyczne i narciarskie, np. Zieleniec na Dolnym Śląsku.

Innymi słowy – jeśli pojedziemy nad jezioro w głuszę to może się okazać że dostęp do Internetu będziemy mieli ale jego prędkość będzie zdecydowanie mniejsza niż jesteśmy przyzwyczajeni w mieście czy na stałym łączu.

2G czy 3G?


Tytuł już od razu sugeruje tematykę związaną z telefonami komórkowymi i smartfonami - tym razem coś o telefonii komórkowej.

Nie chodzi tu o kolejne udowodnienie przewagi sieci 3G/4G nad 2G. Piszę ten artykuł patrząc z pozycji miasta Wrocławia, gdzie w większości lokalizacji nie ma większego problemu z zasięgiem sieci 3G, spora część miasta pokryta jest już zasięgiem sieci LTE a także większość osób ma już telefony, które potrafią skorzystać z sieci 3G.

Sieć 3G to rzecz jasna wyższa jakość rozmów, szybsze korzystanie z Internetu, rozmowy wideo (tak, u nas też to działa bez problemu u niektórych operatorów) i w ogóle same zalety. Nie potrzeba właściwie tego uzasadniać.

Jednak czy to oznacza że w miejscach gdzie mamy sieć 3G, powinniśmy zapomnieć o korzystaniu z 2G?

Do końca nie zapomnimy oczywiście bo nasz telefon, smartfon czy tablet i tak się sam przełączy w tryb 2G gdy trafimy w obszar słabszego zasięgu.
Ale w jakich okolicznościach może nam się przydać celowe przełączenie w tryb 2G gdy bez problemu mamy do dyspozycji 3G?
  1. Oszczędzamy baterie - to chyba najważniejsza sprawa.
    Sam z własnych doświadczeń zauważyłem, że mój Samsung Galaxy S Plus znacznie rzadziej wymaga ładowania jeśli pracuje w trybie 2G.  Nawet w stanie czuwania zużywa mniej energii.
    Dodatkowo gdy chcemy na bieżąco być w sieci (czyli np. w telefonach z Androidem mieć włączony tryb transmisji danych), 2G staje się świetnym rozwiązaniem - ponieważ jak wcześniej wspomniałem, transmisja 2G zużywa mniej energii niż transmisja 3G a przy aktywnym połączeniu sieciowym widać to bardzo wyraźnie.
  2. Na przykładzie Wrocławia widać że są miejsca gdzie zasięg 3G co prawda jest ale jest na granicy efektywnej rozmowy czy transmisji - czyli “na jedną kreskę”. Podobna sytuacja jest pewnie w innych miastach.
    Wskutek tego zdarza się że co chwilę w rozmowie mamy ciszę a nawet zerwania połączenia. Analogicznie jest w transmisji danych - niby połączenie jest ale nie do końca działa cały czas. Urządzenie po prostu oscyluje pomiędzy trybem 2G a 3G - raz zasięg 3G jest niewystarczający i przełącza się w 2G lecz za chwilę 3G wzrasta odrobinę, lecz to wystarczy
    Jeśli przełączymy nasze urządzenie w tryb 2G, ta uciążliwość na granicy 3G znika. Rozmowy są nienajgorszej jakości a połączenia internetowe działają stabilnie, choć dużo wolniej - zgodnie z prędkością 2G czyli ok. 250 kbps maksymalnie. Po prostu nasze urządzenie, widząc dostępną sieć 3G, trzyma się wytycznych aby jednak z niej nie korzystać, więc korzysta ze stabilnego poziomu 2G i nie próbuje tego zmieniać.
    Korzystając z Internetu w smartfonie prędkość z reguły wcale nie jest na pierwszym miejscu - bardziej liczy się to że w miarę przemieszczania się, nie tracimy łączności.  Rzecz jasna jeśli nastawiamy się na pobranie dużej ilości danych albo obejrzenie filmu na YouTube to użycie prędkości 2G na pewno nie jest najlepszym pomysłem.
  3. Kolejną duża zaletą łączności 2G jest że najwyraźniej w praktyce ma ona większy zasięg w porównaniu z 3G i mam wrażenie, że jest bardziej odporna na przeszkody czy miejsca, w których zasięg 3G jest mniej stabilny lub za słaby. Świetnie się sprawdza więc w garażach podziemnych, lokalach w piwnicy czy metalowych halach.
  4. Kwestia limitu danych w abonamencie czy prepaidzie może dla niektórych z Was być również istotna.
    Korzystając z Internetu w trybie 2G transmisja nie następuje tak szybko jak w przypadku 3G więc nasz limit danych zmniejsza się wolniej niż gdyby to miało miejsce w przypadku 3G. W efekcie jest to bardziej kontrolowalny dla nas proces - nie zostajemy zaskoczeni faktem że nagle coś nam “zjadło” 150 MB z pakietu w ciągu kilku minut. Jeśli jakaś aplikacja zaczyna pobierać dane w sposób dla nas zaskakujący, mamy więcej czasu na reakcję.
  5. To samo zjawisko przydaje się za granicą gdzie jeśli już koniecznie musimy skorzystać z transmisji danych w roamingu, chcemy rzecz jasna zużyć jak najmniej danych a tryb 2G pozwala dużo lepiej to kontrolować.
Jak widać, korzyści ze świadomego korzystania z zasięgu 2G jest sporo choć nie można oczywiście powiedzieć że ma to zastosowanie w każdej sytuacji.


Jak przyspieszyć zbyt wolny komputer?

Temat stary jak sam Internet... Przewija się od dawna w różnych poradach czy czasopismach komputerowych. Czym różni się ten tekst od tego wszystkiego co już w tym temacie zostało napisane? Chyba tym że dedykuję go zwykłym użytkownikom komputerów, którzy nie chcą z konieczności zamieniać się w informatyków - amatorów ale chcą aby ich komputery działały sprawnie i aby wiedzieli co zlecić serwisantowi czy informatykowi, nie brnąc w labirynt sprzecznych porad, z jakimi często można się spotkać.

Przede wszystkim dobrze jest poznać w teorii dlaczego typowy komputer domowy czy biurowy może działać zbyt wolno.

Przyczyny są rożne i istotne jest aby dowiedzieć się który przypadek dotyczy nas.

Przede wszystkim należy wyeliminować ewentualne przyczyny spowolnienia ze strony oprogramowania, zwłaszcza niechcianego oprogramowania i wirusów.

Można to zrobić dość prosto, zaczynając od instalacji aktualnego i skutecznego programu antywirusowego a następnie przeskanowania nim komputera.
Jeśli nasz komputer był zawirusowany i już pozbędziemy się wirusów i trojanów albo nie mieliśmy ich wcale, kolejnym krokiem w tym kierunku byłoby wyeliminowanie wszelkich programów nadużywających zasobów komputera.
Pamiętajmy że nie tylko wirus czy trojan mogą spowalniać nasz komputer, może to robić również przeładowana dodatkami przeglądarka, kilka uruchomionych jednocześnie gadżetów urozmaicających nasz pulpit czy też jakiś dodany przez producenta sprzętu pozornie użyteczny programik, który w rzeczywistości nie jest napisany zbyt wydajnie i pochłania zasoby naszego komputera.
To jest wg mnie jedna z przyczyn dla której często ludzie przeinstalowują system operacyjny aby odzyskać sprawność jego działania. Z czasem dochodzą nowe programy, nowe programy dodają coś od siebie do listy spraw, które komputer musi zrealizować po uruchomieniu albo realizuje ciągle w tle (niekoniecznie potrzebnie).
W efekcie właśnie przeinstalowanie spowoduje usunięcie tych dodatków i ponowne sprawne działanie komputera - aż do momentu gdy nie zaśmiecimy go znowu.
Wg mnie nie jest to jedyna słuszna metoda - można przecież przyjrzeć się temu co nasz komputer uruchamia przy starcie, przeanalizować czy to wszystko jest naprawdę potrzebne i czy powinno uruchamiać się wraz z systemem.
Kolejną ważną sprawą są kompletne i aktualne sterowniki zainstalowane w systemie operacyjnym. Najlepszy nawet sprzęt bez aktualnych czy zainstalowanych sterowników nie będzie działał z pełną wydajnością. Tyczy się to zwłaszcza grafiki, chipsetu i dysków.
Tak więc podchodząc do problemu niskiej wydajności komputera, zadbajmy o najświeższe sterowniki zanim zaczniemy walczyć ze sprzętem.

Zmorą komputerów sprzed kilku lat jest często za mała ilość pamięci RAM.

Zbyt mała ilość pamięci jest dla komputera tak jak dla człowieka zbyt małe biurko do pracy czy też zbyt małe mieszkanie do życia - niby idzie jakoś funkcjonować ale co chwilę trzeba coś przestawiać, przesuwać czy zestawiać na podłogę aby wykonać nawet podstawowe czynności. Komputer że zbyt małą ilością pamięci ma podobnie - co chwilę jakieś mniej używane zasoby przerzuca na dysk aby zrobić miejsce dla kolejnych programów, które chce otworzyć i tak w kółko.
Dając mu więcej pamięci, dajemy mu więcej przestrzeni do działania i tego “zestawiania na podłogę i z powrotem” nie musi już robić bo na wszystko ma miejsce.
Ile więcej tej przestrzeni możemy mu dać to zależy od posiadanego sprzętu czy zainstalowanego systemu operacyjnego oraz naszej decyzji (najczęściej finansowej).
Często problemy z wydajnością z powodu pamięci mają komputery wyprodukowane jeszcze w czasach gdy rządził Windows XP i 1 GB RAMu stanowił średnią krajową albo nawet swego rodzaju ekstrawagancję. Takie były bowiem ówczesne zapotrzebowania ze strony systemów operacyjnych czy oprogramowania i tyle wystarczało aby bezproblemowo użytkować komputer.
Spore problemy mają też komputery, na których zainstalowano Windows Vista ale wypuszczono je z 1 GB RAM - czyli okolice roku 2006.
Dzisiaj często system operacyjny zużywa na dzień dobry 1 czy 1,5 GB pamięci podczas startu.
Wspomniane konfiguracje sprzed kilku lat (0,5 - 1 GB RAM) nie wystarczą dla wydajnej pracy Windows Vista, 7 czy 8.
Bywa że konfiguracja nie przekraczająca 1 GB RAM nie wystarcza również dla Windows XP, zaktualizowanego do obecnego poziomu poprawek oraz wykorzystującego nowoczesne przeglądarki do oglądania bogato udekorowanych animacjami Flash i reklamami stron www.

Może się okazać że nasz komputer z racji swojej konstrukcji sprzętowej nie zauważy bądź nawet się nie uruchomi ze zbyt dużą ilością pamięci niż przewidział producent więc czasem nie ma sensu rozbudowywać jej bardziej niż faktycznie jest w stanie to wykorzystać nasz sprzęt:
  • starsze płyty główne w komputerach stacjonarnych czy laptopach obsługują do 4 GB RAM, nowsze obsługują 8, 16 czy 32 GB RAM,
  • netbooki na platformie Intel Atom® to w większości 2 lub czasami 4 GB RAM maksymalnie, które komputer potrafi obsłużyć,
  • systemy 64-bitowe bez większych problemów obsługują bardziej znaczące ilości pamięci.
W tym momencie dobrze jest sprawdzić w dokumentacji komputera, laptopa czy samej płyty głównej albo w Internecie jaką maksymalną ilość pamięci obsłuży nasz sprzęt. Ewentualnie możemy zadzwonić na infolinię producenta.

Również ograniczenie ilości maksymalnie obsługiwanej pamięci przez system operacyjny ma tu znaczenie.

32-bitowe systemy jak np. Windows XP w typowej wersji, Windows Vista 32 bit, Windows 7 32 bit czy Windows 8 32 bit obsługują w praktyce trochę ponad 3 GB RAM maksimum i więcej po prostu nie zauważą czy nie wykorzystają - bez względu na to ile zauważył sam sprzęt.
Od zainstalowanego systemu operacyjnego i jego wersji zależy też ile jak znaczne rozszerzenie pamięci przyniesie jakąś poprawę.
Dla Windows XP rozszerzenie pamięci powyżej 1 GB przynosi poprawę, dla Windows Vista czy Windows 7 jest to 2 GB w wersji 32-bitowej.

 Tak więc jedną z podstaowych spraw, jaką powinniśmy się zainteresować, jest zwiększenie ilości pamięci RAM w naszym komputerze - zwłaszcza jeśli obecnie mamy 0,5 czy 1 GB zainstalowane.

Im starszy komputer, tym większa szansa że taki zabieg radykalnie zmniejszy czy usunie objawy spowolnienia. Nawet jeśli nie mamy zainstalowanego w miarę nowego systemu operacyjnego tylko Windows XP to i tak ten system również wykorzysta większą ilość pamięci.

Odpowiednia dla nas docelowa Ilości pamięci leży gdzieś pomiędzy dającym jakąś poprawę minimum (opisane wyżej) a maksimum obsługiwanym przez nasz sprzęt i będącym do udźwignięcia przez naszą kieszeń. Im bliżej tej górnej granicy tym rzecz jasna lepiej.

Na szybkość działania naszego komputera ma też wpływ zamontowany w nim procesor.

Im szybszy i nowocześniejszy, tym rzecz jasna lepiej i komputer działa szybciej.
Jednak nie zawsze w praktyce, w codziennym używaniu komputera, prędkość procesora stanowi to wąskie gardło.
Często w miarę nowe notebooki mają procesory, które w momentach mniejszego obciążenia czy zasilania bateryjnego, pracują z prędkością porównywalną z komputerami stacjonarnymi sprzed kilku lat. Mimo tego można sprawie i efektywnie na tych komputerach pracować.
Czyli nie zawsze prędkość procesora rzutuje bezpośrednio na sprawne działanie naszego komputera - zwłaszcza jeśli chodzi o prace biurowe, przeglądanie Internetu czy sieci społecznościowych, korzystanie z poczty czy komunikatorów.
Oczywiście gdy nasz komputer ma 10 lat i procesor klasy Duron 600 MHz, na pewno odczujemy powolność naszego komputera właśnie z powodu procesora, bez względu na to co na nim będziemy chcieli zrobić.
Na szczęście większość sprzętu sprzed kilku lat dysponuje już z reguły większą mocą CPU więc jeśli wolno nam się pracuje na takim komputerze, prawdopodobnie spowalnia go co innego a nie procesor.
Wyjątkiem są netbooki czy nettopy na platformie Intel Atom®. Z racji założeń konstrukcyjnych, do najszybszych nie należą. Postawiono tu raczej na mobilność i niewielki pobór energii. Nie oznacza to jednak że nie da się na tym sprzęcie pracować - da się. Bardziej chodzi o to, że jeśli brać pod uwagę nowszy sprzęt, właśnie na nich można łatwo zbliżyć się do granicy wydajności procesora.

 Dysk - kula u nogi albo szansa dla komputera

Zgodnie z powyższym - zastosowany w komputerze dysk (albo dyski) mogą stanowić swego rodzaju kulę u nogi dla jego wydajności, albo wręcz przeciwnie - dodawać mu skrzydeł.

Wszystko to zależy oczywiście od typu dysku i interfejsu.

Starsze komputery, posiadające jeszcze dyski twarde z interfejsem IDE, powoli znikają z naszych biur i domów, ale to właśnie na nich możemy świetnie zobaczyć jak bardzo pracę komputera może utrudniać zbyt wolny dysk i komunikacja z nim.  Prawie na każdym kroku czekamy aż komputer wczyta coś z dysku czy zapisze na nim. Jeśli ta sytuacja zbiegnie się dodatkowo z problemem braku pamięci to wszystko chodzi z prędkością zmęczonego żółwia. Komputer próbuje przerzucać dane z pamięci na dysk i z powrotem a z powodu powolnego dysku trwa to jeszcze dłużej.
W takich przypadkach, oprócz rozbudowy pamięci, może okazać się również konieczne dodanie np. kontrolera SATA w formie karty PCI i w ten sposób wykorzystanie większej prędkości dysków SATA. Oczywiście ma to zastosowanie w przypadku komputerów stacjonarnych. W przypadku laptopów najczęściej nie ma już takiej możliwości.
Często więc laptop, mający zbyt wolny dysk IDE, dodatkowo mało pamięci i w ogóle będący konstrukcją przestarzałą, skazany jest po prostu na wymianę na nowszy model.
Komputery w miarę nowe, mają już kontrolery dysków pracujące w standardzie SATA czy SATA II. Tutaj już komunikacja pomiędzy komputerem a dyskiem nie stanowi wąskiego gardła i wszystko zależy od prędkości dysku. W tym przypadku najczęściej tradycyjny dysk z talerzami jest wąskim gardłem.
Innymi słowy - komputer jest tak szybki jak szybki jest dysk bo magistrala SATA da sobie radę z wyższymi prędkościami transferu.
Oczywiście na praktyczną wydajność korzystania z dysku ma wpływ też fragmentacja systemu plików i regularne jego defragmentowanie.
Co nam pozostaje aby przyspieszyć taki komputer jeśli defragmentacja niewiele pomaga? Szybszy dysk, ale niekoniecznie tradycyjny. Słowo klucz to dysk SSD.
Być może większość czytających ten artykuł wie co to jest dysk SSD ale dla tych, których to słowo jeszcze wiele nie mówi, wyjaśniam.

Dysk SSD to w największym uproszczeniu, urządzenie które wygląda jak zwykły dysk (najczęściej 2,5”) i robi to samo co zwykły dysk - tyle że dużo szybciej i działa w oparciu o technologię bardziej zbliżoną do pendrive niż do tradycyjnego nośnika magnetycznego.

Co nam to daje? Przede wszystkim to że takie dyski potrafią być kilka razy szybsze w praktyce niż ich magnetyczne odpowiedniki, a więc wszystkie operacje komputera z udziałem dysku ulegają skróceniu. Czyli w efekcie komputer wydaje się chodzić szybciej bo krócej czekamy aż uruchomi się system operacyjny, załaduje program czy zainstalują aktualizacje.

Dyski SSD to też często realna szansa na przyspieszenie nie najnowszych komputerów, mających kontrolery SATA.

Pełną moc dysków SSD możemy zobaczyć w komputerach, które mają najnowszy kontroler SATA III - dopiero tutaj poznamy prawdziwą prędkość takiego dysku. Ta ostatnia opcja ma zastosowanie w nowszych konstrukcjach, zwłaszcza komputerach stacjonarnych.
Jak się pewnie łatwo domyśleć, z racji użytej technologii i swoich możliwości, dyski SSD nie są tanie. Na dzień dzisiejszy (luty 2013 r.) w zależności od producenta, dostawcy, pojemności i parametrów, ceny dysków SSD na polskim rynku oscylują w granicach 250 - 350 PLN za dysk SDD o pojemności 60 GB, 400 - 500 PLN za dysk SDD o pojemności 120 GB, dyski o pojemności 180 GB to już co najmniej 700 PLN i więcej.
Jednak jak się dobrze zastanowić, to czasami nie jest to zbyt wygórowana cena za praktyczne i widoczne przyspieszenie komputera. Poza tym nie każdy z nas potrzebuje na dysku systemowym wielogigabajtowego magazynu na własne dane. W praktyce system operacyjny (nawet nowy produkt Microsoftu Windows 8) da się zainstalować na dysku SSD o pojemności 60 GB, ta ilość miejsca pozwoli również na w miarę typowe zagospodarowanie naszego profilu - trochę dokumentów, trochę poczty, nawet kopia dysku chmurowego jak Dropbox powinna się zmieścić.
Oczywiście jeśli zainwestujemy w pojemność 120 GB SSD to po zainstalowaniu systemu powinniśmy otrzymać jeszcze całkiem sporo miejsca.
Poza tym w komputerach stacjonarnych znajdzie się z reguły miejsce na więcej niż jeden dysk, więc możemy zamontować dodatkowy dysk w tradycyjnej technologii, służący przechowywaniu danych, które nie wymagają szybkiego dostępu jak np. zdjęcia, dokumenty, muzyka itp. a zajmują dużo miejsca. Na takim dodatkowym dysku możemy zainstalować również mniej używane czy nie wymagające szybkości odczytu programy.

A co z kartą graficzną? Przecież ona też rzutuje na wydajność.

To prawda - karta graficzna w zdecydowany sposób rzutuje na wydajność naszego komputera jeśli chcemy w coś pograć.
Jednak przynajmniej połowa z nas używa komputera jedynie do zadań nie przekraczających możliwości typowej biurowej karty graficznej. Tak więc w praktyce karta graficzna raczej rzadko stanowi wąskie gardło, które powodowałoby że komputer długo się uruchamia czy wolno reaguje na polecenia. Wyjątkiem są oczywiście wspomniane gry czy inne aplikacje wymagające większych możliwości w zakresie grafiki 3D.

A może jednak lepiej kupić nowy komputer zamiast reanimować stary?

 Wszystko zależy od kalkulacji i danego przypadku.

Bywa że takie wyjście jest najbardziej opłacalne. Mam tu na myśli przypadki gdzie modernizacja komputera swoim kosztem przekracza cenę nowego komputera o analogicznych lub większych możliwościach.
Taka sytuacja jest chyba najczęstsza w laptopach gdzie poza pamięcią i dyskiem nie możemy zrobić nic, nie dokonując karkołomnych sztuczek. Czasami uda się jeszcze zmienić procesor ale generalnie nie jest to częsty przypadek.
W przypadku komputerów stacjonarnych jest nieco lepiej gdyż tutaj z reguły można w miarę niewielkim kosztem zmienić płytę główną czy procesor bez konieczności wymiany całego komputera. Jednak i w maszynach stacjonarnych czasami są ograniczenia czy różne zależności - np. wymiana procesora na szybszy może się wiązać z koniecznością wymiany płyty bo do starszej płyty nowy procesor może nie pasować, to z kolei może zainicjować konieczność wymiany pamięci bo obecne pamięci np. nie będą pasować do nowej płyty itd.
Jednak w większości przypadków sprawa modernizacji komputera zamyka się na dysku czy rozbudowie pamięci.

Jak sprawdzić co mamy w komputerze aby ustalić co można rozbudować?

Wg mnie najprostszym podejściem jest skorzystanie z programu Speccy, który po zainstalowaniu i uruchomieniu pokaże nam co znajduje się w naszym komputerze.
Oczywiście tak jak wspomniałem na początku, nie proponuję zabawy w informatyka-amatora. Bardziej chodzi o to abyśmy poznali jakie są słabe i mocne strony naszego komputera na podstawie powyższych informacji i danych z programu Speccy a następnie zlecili jego rozbudowę jeśli parametry okażą się zbyt niskie a tym samym odpowiadające za spowolnienie.

A co z programami “przyspieszającymi komputer” albo "usuwającymi śmieci" z dysku?

Z tym bywa różnie. Tego typu oprogramowanie nie zastąpi nam zmian sprzętowych jak rozbudowa pamięci czy dysk SSD. Zaryzykowałbym nawet stwierdzenie że niektóre programy tego typu bardziej szkodzą niż pomagają.

Generalnie oczyszczanie komputera z niechcianych, śmieciowych plików czy błędnych wpisów w rejestrze to dobry pomysł choć cudu nie zdziała i jest bezpieczne pod warunkiem że program, którego do tego użyjemy, zrobi to dobrze.
Osobiście mam zaufanie do programu CCleaner, na którym do tej pory się nie zawiodłem. Dzięki niemu możemy pozbyć się niepotrzebnych wpisów z rejestru systemowego a także skasować niepotrzebne czy śmieciowe pliki, generowane przez różne programy. Program ten pozwala nam również na edytowanie listy programów zainstalowanych oraz listy programów do uruchomienia po załadowaniu profilu. Praktycznie przy każdym czyszczeniu odzyskujemy w ten sposób przynajmniej kilkaset MB wolnej przestrzeni na dysku. Nie jest to wiele ale pozwala choć trochę utrzymać porządek.
Jednak widziałem już przypadki gdy programy tego rodzaju, źle napisane, kasowały istotne pliki w systemie czy pliki będące częściami oprogramowania.
Jeśli chcemy odczuć choć trochę efekt programowego przyspieszenia komputera, możemy użyć programu Startup Delayer.
Program ten robi ciekawą rzecz - pozwala nam wybrać które programy uruchomią się od razu po zalogowaniu się na nasz profil w komputerze, które wystartują z opóźnieniem a które nie wystartują wcale.
Co nam to daje? Przede wszystkim to, że odciąża komputer w najtrudniejszym dla niego momencie czyli w chwili gdy pojawia się nasz pulpit a system próbuje naraz wystartować większość programów dodatkowych, przeznaczonych jednocześnie do uruchomienia wraz z pulpitem.
Wspomniany program rozdziela tą grupę na programy startujące od razu, startujące po kolei z opóźnieniem a także na takie, które zgodnie z naszą wolą, nie wystartują wcale.
W efekcie komputer startuje bardziej płynnie i praktycznie od razu w miarę normalnie reaguje na nasze polecenia.

Jakieś podsumowanie?

Tak w skrócie - przyspieszanie komputera to złożony proces,  praktycznie w każdym przypadku trochę indywidualna sprawa i nie ma stuprocentowo uniwersalnej metody na każdy komputer, choć można znaleźć wspólne elementy.
Na pewno warto rozbudować pamięć do poziomu, który będzie optymalny dla posiadanego przez nas systemu operacyjnego.
Dodatkowo można pokusić się o zmianę dysku na SSD czy rozbudowę komputera o dysk SSD - to też sporo przyspieszy a Windows startujący w kilkanaście sekund to nie jest mit w takiej konfiguracji.
Ważne jest też aby nie było obciążających system programów ani nie brakowało aktualnych sterowników.