poniedziałek, 5 sierpnia 2013

Czemu to tyle trwa?

Dzisiaj opowiem Wam realia robienia czegoś "na wczoraj", czegoś poniżej kosztów, spraw z pogranicza "mission impossible" albo gdy trzeba odpowiedzieć na pytania klienta/szefa z gatunku "pytania do jasnowidza". Czyli jak to się kończy gdy klient czy szef wymaga od informatyka "niemożliwego".

Każdy informatyk już pewnie na początku swojej kariery zauważył to zjawisko - prawie wszystko jest na przysłowiowe "wczoraj", zawsze na styk możliwości realizacji, zawsze zakłada się że łatwo pójdzie i nie ma scenariusza na inną opcję...
Częściej można spotkać bardzo wyśrubowany termin realizacji zadania niż groźną infekcje wirusową, ambitną konfigurację czy próbę włamu na serwer. Informatyk przeważnie zmaga się właśnie z bardzo krótkimi terminami niż hordami hackerów czy plagami infekcji...
 
Skąd się bierze zjawisko "mission impossible"?

Weźmy może prosty przykład, który może na początku nie wydaje się bezpośrednio związany z tematem.
W naszym cenniku można znaleźć pozycję "Usuwanie wirusów, trojanów oraz innego niechcianego oprogramowania". Jak widać - usługę tą wstępnie szacujemy na koszt od 30 do 100 PLN. Skąd taki rozstrzał?
Najprościej mówiąc - wszystko zależy od danego przypadku - różne ceny niby tej samej usługi wynikają z różnej pracochłonności zadania.

Jeśli infekcja polega usunięciu jednego niegroźnego wirusa, nieaktywnego i siedzącego sobie w zapomnianym katalogu na dysku, to mamy np. 15 minut roboty...
Innym razem jednak trafiamy na zjawisko infekcji totalnej -  tu nie wystarczy już prosta procedura, trzeba sięgać po specjalne narzędzia, skanować komputer z poziomu płytki narzędziowej czy pendrive. A im więcej danych i im wolniejszy komputer, tym wolniejsze skanowanie. A pojedyncze skanowanie nie zawsze może dać efekt - czyli czasami zabieg trzeba powtórzyć. A czasami to się nie uda i trzeba całość jednak sformatować...
Taki czarny scenariusz może się ciągnąć godzinami aż osiągniemy pożądany efekt.

A zjawisko "mission impossible" bierze się stąd, że najczęściej zleceniodawca z góry zakłada najbardziej optymistyczny scenariusz, czasami wręcz otwarcie go oczekuje, stawia jako target naszych działań, czasami kojarzy to z czymś w typie best deal - czyli że z góry może utargować najkrótszy czas realizacji, coś jak wariant ekspresowy...
Gdy jednak dowiaduje się jakie są realia i że to wcale nie będzie najkrótszy wariant realizacji usługi, jest niezadowolony, to nie miało tyle trwać, ktoś mu nie dał najlepszej oferty...

Skąd klienci więc biorą swoje wyceny, szacowania?
Każdy z nas ma jakieś swoje wyobrażenie o danej usłudze, głównie na podstawie własnych doświadczeń albo doświadczeń znajomych, rodziny, zewnętrznych konsultacji itp.
Tak więc ktoś, kto widział udaną rozprawę z wirusami jedynie w wersji light (prosta infekcja), być może usuwanie wirusów kojarzy z taką szybką akcją i może być niezadowolony jeśli zabieg pt. "usuwanie wirusów" potrwa kilka godzin w przypadku dużej infekcji.
I odwrotnie - jeśli ktoś przywykł do długich potyczek z falami infekcji, usuwanie pojedynczej, prostej infekcji wywoła u niego uśmiech na twarzy i pewnie pomyśli że ci, którzy realizowali wcześniejsze usługi, może go naciągnęli czy oszukali albo że teraz trafił na super informatyka...
Pamiętajmy że cały czas chodzi o jedną i tą samą usługę w cenniku...
Od danego przypadku i tej kombinacji wrażeń "kiedyś-dzisiaj" zależy czy ocena takich działań będzie pozytywna czy negatywna.
Niektórzy zleceniodawcy czasami doszukują się również jakiegoś wątku handlowego w całej sprawie.
Wygląda to jakby założyli sobie target a potem, widząc że nie jest on osiągany, myśleli "Dlaczego ten informatyk chce ode mnie więcej pieniędzy za robotę niż zakładałem, czemu tyle siedział nad prostą sprawą? Jaki argument powinienem rzucić aby zszedł z ceny czy zrobił robotę szybciej?"...
Być może odbierają sytuację na zasadzie że robią deal, że to dobijanie interesu, że to gra handlowa... Handlowiec może zejść z ceny i to w większości jest kwestia dobrej woli, więc podobnego podejścia oczekuje się od informatyka.

A czy tak powinno być?

Wg mnie nie. Taka zaoczna wycena czasochłonności powinna uwzględniać różne problemy jakie można napotkać podczas realizacji zadania informatycznego i wynikać z faktycznej trudności zadania a nie tylko z własnego przeświadczenia ile takie zadanie w teorii powinno zajmować albo porównań do innych, w rzeczywistości zupełnie innych przypadków (choć dla zleceniodawcy wydają się one identyczne).

Co z tego wynika? 

Najczęściej ocena danego wykonawcy, jeśli nie jest do końca trafna, może się skończyć nawet niespodziewaną zmianą wykonawcy. To zresztą nie jest jedynie domena zleceń w branży IT, podobne sytuacje zdarzają się również w innych branżach.
Tak więc albo jeszcze przed realizacją zlecenia albo już w trakcie jego trwania, zleceniodawca zauważa że to zajmie dłużej i będzie kosztować więcej niż początkowo sobie oszacował. Wówczas albo kładzie nacisk na informatyka - niech zrobi coś aby to jednak zajęło krócej i kosztowało mniej, albo czując się oszukany, zaczyna rozglądać się za innym wykonawcą.

W efekcie wszyscy tracą:
  • klient traci bo ma rozgrzebaną robotę, którą potem próbuje przejąć kolejny wykonawca z często jeszcze gorszym skutkiem, niż zaczął pierwszy. Poza tym, chcąc oszczędzić, bywa że klient płaci prawie podwójnie - raz pierwszemu wykonawcy za zaczęcie czy pierwsze etapy roboty, drugi raz drugiemu wykonawcy za dokończenie. O straconych nerwach nie wspomnę. Bywa też że po zmianie wykonawcy na kolejnego klienta czeka dalsze rozczarowanie bo ten drugi jest jeszcze mniej efektywny niż pierwszy - zwłaszcza jak zadanie było właśnie "mission impossible".
  • traci pierwszy wykonawca bo czeka go spora ilość spięć i trudnych sytuacji z klientem, robota robi się mało wdzięczna a może się okazać że klient nie zapłaci bo wstępnie oszacował sobie dane zadanie inaczej a wyszło tak jak w realu a nie jak w teorii.
  • bywa że traci również kolejny wykonawca, bo dostaje rozgrzebaną robotę po pierwszym wykonawcy, już wstępnie poirytowanego klienta i właściwie na dzień dobry wszystko jest "pod górę". Bywa że drugi wykonawca potwierdza swoim działaniem słuszność działań tego pierwszego i wtedy klient już naprawdę nie wie co z tym zrobić...
Czy są tu jakieś rady dla klientów/zleceniodawców?

Pamiętajmy że ludzie, którzy piszą programy czy systemy operacyjne też się mylą a z tego czasami wynikają problemy w naszej pracy informatyków i są to problemy naprawdę niespodziewane, nigdzie o nich nie uczą w żadnej szkole i właściwie tylko logiczne myślenie lub improwizacja pozwalają wybrnąć z nietypowego problemu. Dlatego nie zawsze wszystko jest na czas, zgodnie z obietnicą i w ogóle wg rozkładu jazdy.
W świecie IT nie zawsze wszystko do siebie pasuje, nie ma uniwersalnego prawa informatycznego, które wymagałoby aby programy pasowały do siebie i nie robiły błędów. Długo jeszcze poczekamy na taką idealną sytuację.
Jeśli chcecie szacować realnie - zapytajcie Waszego informatyka - podwykonawcy czy pracownika. Jeśli nie wie od razu, pozwólcie się mu dowiedzieć - to Wasz przewodnik po świecie IT.
Dopiero wtedy decydujecie ile co ma zająć i ile kosztować.

A co można doradzić informatykom?

Pamiętajcie, klient czy szef często ma swoją wizję, którą być może złapał w biegu, znajomy mu podpowiedział, nikt nie wnikał w szczegóły techniczne - skoro dało się wdrożyć w jednym miejscu, pewnie da się i w drugim. Innymi słowy - nikt nie spodziewał się "schodów".
Uświadomcie go dlaczego ten konkretny przypadek jest inny, wskażcie słabe punkty, wytłumaczcie że to nie deal czy oferta handlowa, że tu decydują konkretne możliwości techniczne a nie dobra wola. Posłużcie się jakimś przykładem z mniej informatycznego aspektu życia - np. "części do Audi nie będą pasować do Peugeota".
 

niedziela, 4 sierpnia 2013

Jaki sposób wyceny usług informatycznych opłaca się klientom

Kolejny finansowy temat.
 
Tym razem chcemy pokazać jak różne sposoby wyceny zleceń informatycznych rzutują na cenę końcową usługi dla klienta. I mówię tu zarówno o jednorazowych zleceniach jak i regularnej opiece informatycznej miesiąc w miesiąc.
 
Ktoś może skwitować: "Po co takie rozważania? Ma być najtaniej i już!"...
 
Zacznijmy może od tego jak w praktyce wygląda ustalanie z nami cen. Przychodzimy do klienta i pytamy się jaki sposób wyceny preferuje. I tu w zależności od rodzaju klienta, branży, jego wcześniejszych doświadczeń z informatykami czy podwykonawcami w ogóle, słyszymy następujące wersje zdarzeń:
  • ryczałt za usługę,
  • wycena godzinowa,
  • wycena zadaniowa (np. określona stawka za każdą interwencję).
 
W prawie każdym z tych przypadków, osoba decyzyjna po stronie klienta jest w pełni przekonana co do słuszności własnej propozycji takiej wyceny. Sporo klientów nie ma doświadczenia informatycznego, własnych statystyk odnośnie pracochłonności poszczególnych zadań informatycznych, pełnej świadomości co faktycznie dzieje się w ich sieci komputerowej.
W efekcie wybierają wykonawców którzy zaoferują ich ulubiony sposób wyceny a nie najtańszy w danej sytuacji.
 
Czy zatem zamierzamy z tym polemizować albo udowadniać że ktoś nie ma racji?
Nie, chcemy jedynie pokazać jak u nas wycena usługi wygląda od kuchni i w zależności od sytuacji w danej firmie i jak takie czy inne założenie może przełożyć się na finalną cenę usługi.
Można to potraktować jak taki swoisty przewodnik po wycenach informatycznych. I jeśli nawet ktoś nie wybierze nas do realizacji danego zadania, może przyda mu się to w rozmowach z innymi podwykonawcami.
 
Może parę przykładów:
  • gdy wiedza osoby decyzyjnej o aktualnej sytuacji sieci komputerowej w firmie pokrywa się ze stanem faktycznym, gdy osoba taka jest osobą trochę techniczną i dodatkowo jest dobrze zorientowana w przebiegu poprzednich prac informatycznych, wie co gdzie było robione wcześniej i jaki efekt to dało - tam raczej opłaca się zastosować wycenę czasową.
    Dzieje się tak gdyż w trakcie prac najczęściej nie wychodzą dodatkowe, nieznane wcześniej fakty, problemy czy zadania - więc koszt jest przewidywalny a ponieważ jest liczony od czasu więc dobrze dopasowany do zakresu prac.
  • w przypadku gdy osoba decyzyjna nie jest osobą techniczną, nie do końca ma pełny zakres informacji odnośnie tego co było zrobione w systemie wcześniej, jeśli nie wnikała dokładnie czym zajmowała się faktycznie poprzednia ekipa IT, na czym polegały problemy - to najczęściej w trakcie dalszych prac informatycznych wyjdzie dużo niespodzianek.
    W przypadku realizacji wyceny czasowej może dać różne nieprzewidziane efekty finansowe. Siadamy do prac, ktoś decyzyjny zakłada że dane zadanie skończymy w godzinę, a tymczasem my napotykamy przy okazji 3 inne problemy informatyczne i właściwie czas realizacji przeciąga się do 3-4 godzin i nie jest to celowe generowanie kosztów czy naciąganie czasu pracy - rzeczywiście tyle pracy trzeba włożyć aby zrobić coś solidnie.
    Najlepszą analogią byłby przypadek gdy jedziemy do mechanika samochodowego aby wymienił nam olej a przy okazji dowiadujemy się że mamy zużyte klocki hamulcowe i brak płynu hamulcowego.
    I tu ma miejsce pewna sytuacja patowa - jeśli taki przykładowy mechanik wymieni jednak te klocki, doleje płynu hamulcowego to jesteśmy bezpieczniejsi na drodze, ale czujemy się trochę oburzeni i może oszukani albo naciągnięci - nie zakładaliśmy dodatkowego kosztu, nie pasuje to nam.
    Z drugiej jednak strony - jeśli ktoś tego nie wyprostuje (zrobi tylko to o co prosiliśmy ignorując faktyczne zagrożenie) albo chociaż nam o tym nie wspomni, będzie automatycznie głównym podejrzanym w przypadku gdy będziemy mieli wypadek i nie zdążymy skutecznie zahamować. I tak źle, i tak niedobrze...
    Dlatego też w przypadku gdy zleceniodawca nie ma pełnej wiedzy o stanie infrastruktury informatycznej ani o problemach które tam występują, dużo lepiej wyjdzie na wycenie ryczałtowej lub zafiksowanej kwocie za dany zakres zadań.
    Oczywiście ta sytuacja ma również drugą stronę medalu. My również chcemy aby cena odpowiadała pracochłonności więc w przypadku gdy pracochłonność w istotny sposób przewyższa uprzednią wycenę, staramy się o tym z klientem rozmawiać. Jednak jest to dużo lepsza sytuacja niż taka, w której zleceniodawca staje przed dużo wyższym kosztem w wyniku wyceny godzinowej niż się spodziewał.
  • wycena zadaniowa przydaje się gdzieś pośrodku - jeśli nie wiemy wszystkiego o naszej sieci komputerowej, mamy pracowników, którzy mogą coś chcący lub niechcący w niej zepsuć, ale z drugiej strony jakiś obraz tej sytuacji mamy, dotychczasowy podwykonawca informatyczny rzeczowo informował nas o postępach i efektach swoich prac, możemy wykorzystać złoty środek jakim jest wycena zadaniowa. Czyli umawiamy się na konkretną cenę za dany typ zadania.
Tytułem podsumowania - jak widać dużo zależy od tego ile zleceniodawca wie o zadaniu które nam zleca i o tym co się dzieje w jego sieci komputerowej. Dlatego też jeśli zamierzamy zlecić doraźne zadanie informatyczne lub podpisać umowę regularnej opieki informatycznej - weźmy poprawkę na nasz poziom wiedzy informatycznej oraz wiedzy o tym co się dzieje w naszym systemie komputerowym oraz jak faktycznie wywiązywała się z zadań informatycznych poprzednia ekipa.
 

wtorek, 9 lipca 2013

Od czego zależy cena reinstalacji Windowsa czyli coś o wycenie usług informatycznych

Teraz coś o pieniądzach...
Być może czasami zastanawialiście się od czego zależy cena takiej przykładowej, typowej usługi informatycznej. Poprzez "typową" usługę rozumiem np. chyba już legendarne przeinstalowanie Windowsa.
Często bowiem spotykamy na stronach firm informatycznych czy w serwisach ogłoszeniowych różne wyceny tej samej usługi i nieraz wydaje się to dziwne - jedni chcą tyle, drudzy dwa razy więcej.
Czy to znaczy że ci informatycy, którzy chcą za to więcej to oszuści i zdziercy? A może inni cenią się za tanio?
Spróbuję na to pytanie odpowiedzieć z pozycji informatyka, który też realizuje takie zlecenia.
Przede wszystkim - w branży informatycznej, podobnie jak w innych branżach, istnieją pewne wieloznacznie nazwane usługi. Poprzez wieloznaczność mam na myśli to że pod tą samą nazwą cennikową może kryć się zupełnie różne usługi, których czas realizacji to 30 minut jak i 4 godziny...
Oczywiście wiadomo że im więcej pracy tym więcej usługa będzie kosztować.
Skąd taki rozstrzał? Czy te 4 godzin to jakieś oszustwo? A może zrobienie tego w 30 minut to jakieś pójście na skróty czy partactwo?
Najczęściej ani jedno ani drugie...
Operuję tu cały czas klasycznym przykładem przeinstalowania systemu Windows XP bo świetnie oddaje to zjawisko choć system tej już jest bardzo dojrzały i coraz więcej osób przesiada się na Windows 7 i 8.
W wycenie chodzi o faktyczną pracochłonność i nakład czasu potrzebny do osiągnięcia efektu zakładanego przez klienta. I w zależności od tego co zastaniemy u klienta, jego sprzętu i oczekiwań "dodatkowych", na osiągnięcie tego samego efektu, potrzebujemy mniejszej lub większej ilości pracy - a więc i czasu...
Często takie kalkulacje nie biorą pod uwagę konieczności wykonania wielu czynności dodatkowych. Przykładowo - zwykłe zainstalowanie Windows najczęściej zajmuje do 30 minut - ale chodzi tu o samą instalację po uruchomieniu instalatora z płytki czy pendrive.
Co więcej - nawet i ten etap może potrwać różnie - jeśli np. podczas instalacji XP wybierzemy pełne formatowanie zamiast szybkiego, to nawet ta podstawowa instalacja może się wydłużyć. Szybkie formatowanie jest jednym z etapów instalacji i zajmuje np. do 30 sekund, jeśli zamiast tego wybierzemy pełne formatowanie, to w zależności od szybkości naszego dysku i jego pojemności, może to sięgnąć prawie godziny...
Czyli z 30 minut może się nagle zrobić 1,5 godziny na samą instalację samego systemu - bez przywracania danych czy instalacji sterowników.
formatowanie Windows i inne

Zakładając jednak że trzymamy się szybkiego formatowania podczas instalacji, pozostaje wiele spraw dodatkowych, które mogą taką usługę wydłużyć.
Najbardziej podstawową sprawą są sterowniki do różnych urządzeń w komputerze. Większość z nich znajdziemy w lepszej czy gorszej wersji w samym systemie operacyjnym. Im nowsza wersja systemu tym więcej ich tam znajdziemy.
Oczywiście najczęściej te sterowniki najbardziej wydajne, najnowsze albo o największej funkcjonalności, znajdziemy na stronie producenta danego sprzętu lub na płytce dołączonej do sprzętu. Bywa że Microsoft nie zawarł w systemie operacyjnym tych sterowników i strona producenta lub płytka jest jedynym ich źródłem.
Najgorszy scenariusz to taki, gdzie nawet na stronie producenta nie znajdujemy sterowników i musimy szukać naprawdę dobrze aby takie urządzenie uruchomić. To jednak zdarza się naprawdę rzadko i z bardzo unikalnym sprzętem.
Dodatkowo jeśli klient zaznaczy że chce w ramach reinstalacji mieć zabezpieczone swoje dane i programy, które miał wcześniej zainstalowane, okazuje się że w zależności od ilości tych danych i programów, robota wydłuża nam się o kolejne 30 minut do nawet ekstra kilku godzin.
Dlaczego? Dlatego, że przecież dane, które zabezpieczamy (czyli najczęściej kopiujemy w inne miejsce, np. na pendrive, dysk przenośny czy drugą partycję) mogą mieć różny rozmiar. To może być i 10 MB (np. 20 dokumentów) jak i 200 GB (wielka kolekcja zdjęć). Im więcej danych, tym więcej czekania aż to się gdzieś skopiuje przed wykonaniem reinstalacji a potem drugie tyle aż się skopiuje z powrotem po reinstalacji.
Tak samo z programami, które klient chce mieć działające po reinstalacji - ich ponowna instalacja zajmuje również sporo czasu w niektórych przypadkach. Tym więcej, im bardziej programy są nietypowe, brakuje do nich plików instalacyjnych, trzeba odnaleźć klucze licencyjne czy przywrócić dane w ich miejsce.
Bywa że zabezpieczanie danych zajmuje 2 godziny, reinstalacja godzinę, przywracanie danych to kolejne 2 godziny...

Poza tym można zauważyć dwa podejścia do sprawy aktualizacji systemu Windows po jego zainstalowaniu.
System operacyjny, zainstalowany z płytki czy pendrive, ma stan aktualizacji na dzień wypuszczenia takiej płytki czy obrazu na rynek. Najczęściej od tego momentu producent systemu znajduje wiele błędów i poprawia je wypuszczając aktualizacje Windows.
Po zainstalowaniu system sam z siebie po jakimś czasie proponuje ich instalację.
Jedni informatycy skłaniają się ku takiej propozycji i poświęcają w ramach usługi reinstalacji systemu czas na zainstalowanie tych poprawek, drudzy nie widzą takiej potrzeby, uważają że system gdzieś tam je sam potem pobierze.
Dlaczego ma to znaczenie w czasie realizacji usługi i jej koszcie? Ponieważ to trwa - i to w zależności od wersji systemu i jego wydania (Windows XP wychodził na płytkach z różnymi poziomami poprawek, w zależności od roku wypuszczenia płytki), komputer musi pobrać więcej lub mniej danych z Internetu aby osiągnąć aktualny poziom poprawek. Na czas pobierania ma też wpływ prędkość łącza internetowego, jaką dysponuje klient.
Czyli w bardzo optymistycznym scenariuszu reinstalacji Windows XP mamy ok. 30 minut jeśli nie zabezpieczamy danych, robimy szybkie formatowanie, sterowniki albo są w systemie albo mamy je pod ręką, a potem nie musimy instalować najbardziej typowych programów bo klient zrobi to sam.
Czarny scenariusz to np. reinstalacja z pełnym formatowaniem, problemami z odnalezieniem sterowników, wiele danych do zabezpieczenia oraz wiele poprawek Windows do pobrania - w efekcie nawet 5-6 godzin schodzi na jedną reinstalację.
Jak widać wszystko zależy od tego ile klient sobie zażyczy abyśmy zrobili w ramach takiej reinstalacji lub ile my zdecydujemy za klienta ile powinniśmy zrobić.

Niestety nie wszyscy klienci wiedzą czego mogą lub nawet powinni sobie zażyczyć. W efekcie kierując się jedynie ceną mogą łatwo się "naciąć" na tanią usługę, która okazuje się być jedynie samym sformatowaniem dysku i zainstalowaniem "gołego" Windowsa. I dopiero potem przychodzi uświadomienie sobie "gdzie moje zdjęcia z wakacji, gdzie moja poczta, gdzie moje dokumenty..." - ale wtedy najczęściej jest już za późno.
Nasza etyka jest taka że jeśli już zabieramy się za reinstalację systemu, dokładnie dopytujemy klienta o zakres tej usługi, przypominamy o zabezpieczeniu danych, poczty itp. Uświadamiamy jakie będą skutki tego, jakie tamtego, informujemy ile to potrwa. Dopiero mając wszystkie niezbędne informacje, przystępujemy do działania.

poniedziałek, 8 lipca 2013

Czy Linux to naprawdę zamiennik dla Windowsa?

Od kilku lat gdzieś przewijają się nam informacje że zamiast Windowsa można zainstalować na komputerze "Linuxa" czyli którąś z dystrybucji systemu Linux: Ubuntu, Linux Mint, Fedora, Mandriva... Niektórzy nawet są z tego zadowoleni, choć spotykamy też opinie że dla niektórych praca w takim środowisku jest trudna itp.

Jak to więc jest z punktu widzenia informatyka?

Najpierw jakie wg mnie są zalety posiadania Linuxa na pulpicie:
  1. Generalnie mówiąc popularne dystrybucje Linuxa są w zdecydowanej większości darmowe, nie potrzebujemy wykupywać licencji - więc pod względem ceny jest to na pewno bardzo atrakcyjna propozycja, zwłaszcza że za darmo zyskujemy praktycznie kompletne i legalne środowisko do pracy, typowego korzystania z Internetu czy nawet zabawy.
  2. Wg mnie kolejną zaletą rozwiązań linuxowych na pulpit jest to że w teorii istnieje może kilka wirusów (w sensie rozumianym na Windowsie), ale w praktyce osobiście jeszcze się nie spotkałem z typowym "windowsowym" zawirusowanie Linuxa. Nie wspominam tu oczywiście o atakach na serwery liuxowe, gdzie rzeczywiście można spotkać rootkity/trojany ale to "zawdzięczamy raczej faktowi wystawienia tych serwerów na świat czy braku aktualizacji systemu serwera czy serwowanych przez niego stron. Tak więc środowisko Linuxa na pulpicie można uznać chyba za dużo bezpieczniejsze niż statystyczne środowisko Windows, zwłaszcza gdy porównujemy to do Windows XP, który był statystycznie dość podatny na infekcje.
    Oczywiście znajdziemy również oprogramowanie antywirusowe na Linuxa od wiodących producentów a także bez względu na stosowany system operacyjny, powinniśmy uważać na niebezpieczne strony www bo pomysłowość twórców złośliwego oprogramowania nie zna granic.
  3. Następną zaletą zastosowania którejś z dystrybucji linuxowych na zamiast Windowsa na desktopie jest dużo mniejszy poziom wymagań sprzętowych niż niektóre wersje Windowsa (zwłaszcza Vista) i w efekcie może się okazać że nasz komputer sprzed kilku lat będzie działał całkiem sprawnie, lepiej niż w wymagających (zwłaszcza pod względem wykorzystywanej ilości pamięci RAM) systemach Microsoftu.
  4. Jeśli mówimy już o wydajności to pamiętajmy o kolejnej fajnej opcji, jaką dają nam systemy linuxowe - możemy używać różnych wersji pulpitu. To zjawisko najczęściej całkowicie obce użytkownikom, którzy przez cały czas korzystali z Windowsa (gdzie jest jedno środowisko graficzne i alternatywy praktycznie nie są znane, choć technicznie są możliwe).
    Oznacza to że w momencie logowania się do komputera wybieramy z jakiego menedżera pulpitu chcemy korzystać - jeśli mamy ochotę popatrzeć na wodotryski i pełne gadżetów pupity, wybieramy odpowiednią "wersję" pulpitu, natomiast gdy cenimy sobie prostotę i minimalizm, możemy wybrać środowisko bardzo minimalistyczne, zużywające niewielką liczbę zasobów - co świetnie się sprawdza właśnie na komputerach o mniejszych możliwościach.
    Innymi słowy - jest pełna swoboda w wyborze pulpitu i nie jesteśmy skazani na jeden, domyślnie uznany przez producenta za słuszny.
  5. Zdecydowana większość oprogramowania, które znajdujemy w praktycznie każdej dystrybucji Linuxa, to oprogramowanie open source lub freeware. To oznacza że raczej jest ono wolne od oprogramowania szpiegowskiego czy zbierającego dane marketingowo-statystyczne.
    To dwie zalety w jednym - z jednej strony lepiej chronimy naszą prywatność, z drugiej strony każde oprogramowanie, które w środowisku Windows zbiera dane o nas czy naszych działaniach, upodobaniach itp., również zużywa zasoby komputera czy korzysta z łącza do Internetu. Korzystając z Linuxa nasz komputer ma więcej zasobów na działania, które my mu zlecamy, nie marnuje zasobów na śledzenie naszej aktywności.
  6. Zdecydowana większość oprogramowania w świecie Linuxa to wolne oprogramowanie open source lub freeware. Nie spotkamy tu wiele adware, tak powszechnego w świecie Windowsa (wyświetlanie reklam oraz zbieranie informacji o użytkownikach programu).
    Oczywiście to się stopniowo zmienia i wydawcy niektórych dystrybucji jak Ubuntu stawiają coraz bardziej odważne kroki w rozwoju marketów z aplikacjami - analogicznie jak to wygląda w przypadku Apple i Androida. Jednak aplikacje płatne są na razie niezbyt liczne i można je potraktować trochę jak "ekstrasy". Zresztą często są warte swojej ceny.
    Tak czy inaczej - do normalnej pracy na komputerze wystarcza właśnie ta darmowa większość.
  7. Najpopularniejsze dystrybucje Linuxa mają o niebo lepiej zorganizowany system zarządzania oprogramowanie niż można to zauważyć w Windowsie.
    Nie ma tu zatem sytuacji gdzie każdy program sobie śmieci po systemie jak mu pasuje. Jest cały system zarządzania pakietami, który dokładnie pilnuje gdzie znajduje się każdy z plików, które zostawił każdy z programów. Jest to jeden spójny system, który nie pozwala na samowolę programów w tym zakresie i zostawianie po sobie zaśmieconego systemu.
  8. Czy na Linuxie można pograć czy obejrzeć film, posłuchać radia itp.?
    Odnośnie multimediów to jak najbardziej, stwierdziłbym nawet że często odpowiednie aplikacje do tego są zainstalowane "na dzień dobry". Odnośnie grania to sytuacja jest coraz lepsza wraz z momentem wydania na Linuxa platformy Steam. Nie oznacza to automatycznie że wszystkie gry ze Steam windowsowego zadziałają od razu na Linuxie ale z każdym dniem tych gier pojawia się więcej.
Ale ponieważ nie ma róży bez kolców, więc nie ma też i systemu bez wad - w aspekcie porównania ogólnych cech popularnych dystrybucji Linuxa z systemem Windows:
  1. Z racji tego że jest to jednak całkiem inny system, inne jądro systemu, inne biblioteki czy podejście do sterowników, nie zainstalujemy na nim programu tej samej windowsowej wersji programu, którego instalujemy pod Windows. Mam tu na myśli to że nie możemy pobrać czy przynieść na płytce pakietu instalacyjnego danego programu pod Windows i tak po prostu zainstalować w dystrybucji Linuxa. Musimy znaleźć wersję pod Linuxa, a jeśli jej nie ma to jakiś zamiennik tego programu.
    Oczywiście są linuxowe wersje większości programów albo zamienniki, ale piszę to pod kątem osób, które mogłyby by wpaść na skrót myślowy typu "zainstaluje sobie Ubuntu, wezmę płytki Microsoft Office i Płatnika ZUS i je też zainstaluje".
  2. Część taniego sprzętu jak drukarki czy skanery ma sterowniki od producenta tylko pod Windowsa i Mac'a. Uruchomienie go pod Linuxem nie jest niemożliwe ale czasami polega na wykorzystaniu poradników ludzi którzy sporo się nakombinowali aby uruchomić pod Linuxem dane urządzenie. W takich przypadkach nie jest to po prostu plug'n'play jak pod Windowsem.
  3. Sporo producentów sprzętu czy oprogramowania jeszcze nie  traktuje Linuxa poważnie, nie wypuszcza wersji oprogramowania pod ten system. To się jednak dość szybko zmienia na korzyść Linuxa bo coraz więcej firm widzi w użytkownikach Linuxa potencjalne źródło przyszłych zysków - choć to oznacza że takie produkty niekoniecznie muszą być darmowe - zgodnie z polityką danego procenta.
Podsumowując - komu wg mnie przyda się Linux na pulpicie?

+ osobom które na co dzień korzystają z komputera do generalnie pojętego używania Internetu - czyli poczta, strony www, zakupy online, bankowość internetowa, komunikatory, portale społecznościowe itp.

+ osobom, które korzystają z komputera jak powyżej i do tego mają na głowie kwestię legalizacji Windowsa (czyli np. pirackiego XP, którego chcą zastąpić innym, legalnym systemem),
 
+ osobom które nie chcą płacić za system Microsoftu (albo w cenie sprzętu albo jako zakup dodatkowej licencji) i nie potrzebują do pracy czy korzystania z komputera aplikacji specyficznych dla Windowsa,
 
+ osobom, którym nie wystarczy zwykły pulpit Windows, brakuje mu pewnych funkcjonalności jak gadżety pogodowe, integrujące z sieciami społecznościowymi czy usługami Google,

+ pracownikom firm, gdzie do pracy wystarczy wspomniane już korzystanie z Internetu, a dodatkowo kierownictwo firmy chce się zabezpieczyć przed próbami wykorzystania przez pracowników takiego komputera do celów innych niż zawodowe. Sam fakt "inności" systemu często wystarczy jako element zniechęcający do takich prób. Poza tym na Linuxie łatwiej jest stworzyć odpowiednie ograniczenia bez dedykowanego, z reguły płatnego oprogramowania.
 
+ osobom zajmującym się obróbką dźwięku czy grafiki w oparciu o darmowe czy otwarte oprogramowanie - jest wiele narzędzi do tego służących w środowisku linuxowym,

+ wszelkim amatorom darmowego czy otwartego oprogramowania - pod Linuxem jest go bowiem znacząco więcej niż pod Windows. Zresztą większość open source, jakie znamy na Windows, narodziło się w świecie Linuxa a dopiero potem ktoś zrobił wersje Windows.

Komu bym nie polecał Linuxa?
 
Właściwie nie ma takiej osoby, która z chociażby przejściowego kontaktu z Linuxem nie wyniesie czegoś dobrego. Jednak pewne  jego zastosowania mogą być pełne wyzwań i właściwie opłaca się bardziej zapłacić za Windowsa. Przykłady poniżej:

- wszelkie zastosowania księgowe/kadrowe oraz miejsca gdzie używa się dedykowanego oprogramowania, nie posiadającego wersji linuxowej - czyli wszelkie programy księgowe i oparte na nich pakiety ERP dedykowane pod Windows, Płatnik z ZUS czy inne programy, które są dość popularne w Polsce wśród księgowych czy kadrowych.

- wszelkie miejsca gdzie do pracy konieczne jest oprogramowanie graficzne czy projektowe producentów Adobe, Corel, Autodesk itp. Na chwilę obecną nie słyszałem bowiem o skutecznym i wspieranym przez producenta uruchomieniu tych programów pod Linuxem.
Są oczywiście narzędzia (jak Wine czy PlayOnLinux), które pozwalają uruchomić znaczną ilość programów dla Windows, jednak w przypadku tak poważnych zastosowań jak prace projektowe czy graficzne, nie chciałbym nikomu gwarantować stabilności takich rozwiązań.

- miejsca gdzie wymaga się wykorzystania pakietu Microsoft Office w zakresie nie oferowanym przez darmowe odpowiedniki (np. Exchange, dokumenty ze złożonymi makrami czy dedykowanymi dodatkami).
 
Zachęcam więc do sprawdzenia jak sami czujemy się w tym systemie.
Oczywiście w przypadku osób nie mających doświadczenia z partycjonowaniem dysku czy instalacją Linuxa, najlepiej poprosić kogoś o pomoc, sprawdzić to w maszynie wirtualnej albo przy pomocy odpowiedniego kreatora instalacji, dostarczonego przez twórców danej dystrybucji. Niezbędne będzie też uprzednie zrobienie kopii bezpieczeństwa własnych danych.
Nieumiejętne operowanie partycjami (własnoręczne zakładanie partycji dla Linuxa czy wygospodarowywanie miejsca na taką instalację poprzez zmniejszenie partycji Windows) może skończyć się bezpowrotną utratą naszych danych.

środa, 3 lipca 2013

O informatykach-jasnowidzach, informatykach-kosmitach i innych mitach w IT...

Zmieniamy tematykę...
 
Dzisiaj coś o informatykach i o kilku mitach z nimi związanych.
 
Sam będąc informatykiem, postanowiłem opisać kilka typowych sytuacji i obalić kilka mitów. Mam wrażenie że będzie to ciekawa lektura dla osób, które do tej pory miały przynajmniej kilka sytuacji gdy nie mogły się porozumieć z informatykiem albo czuły się zawiedzone po wykonaniu przez kogoś usługi informatycznej.

Ktoś może stwierdzić "to nie mój problem że nie mogę dogadać się z informatykiem" - niby tak, z tym że na takim nie dogadaniu się najczęściej tracimy my, zlecający a nie sam informatyk. 

A więc lecimy po kolei...
  1. Informatyk – jasnowidz. To wg mnie jeden z najczęstszych mitów.
     
    Nie wiem skąd ten mit się wziął, ale podejrzewam wszelakie filmy rodem z Hollywood, gdzie genialny hacker czy specjalista od IT, kilkoma wciśnięciami klawiszy, namierza poszukiwanego na drugim końcu świata, podłącza się do ulicznych kamer monitoringu, dostaje się do zabezpieczonej hasłem kartoteki osobowej, konta bankowego czy przejmuje dowodzenie nad całym systemem obrony.  Albo jak filmowy Neo przejmuje kontrolę nad Matrixem…
    Drugim źródłem tego mitu mogą być już bardziej realne sytuacje z życia wzięte, gdzie czasami zdarza się, że informatyk podłącza się zdalnie do naszego komputera, widzi nasz pulpit czy sterując nim, pomaga rozwiązać nasz problem. Więc zaczyna nam się wydawać że rzeczywiście widzi wszystko, może wszystko, wie wszystko...
     
    A jak jest naprawdę? O ile pierwszy, hollywoodzki obraz raczej bym odłożył na bok i nim się tu nie zajmował, to druga sytuacja jest dobrym przykładem aby pokazać jak to działa w życiu „w realu”.
     
    Przykłady? Proszę bardzo :)
     
    - „Dzień dobry, dlaczego mi tu wyskakuję błąd?” – zaczyna rozmowę z informatykiem przez telefon zirytowany użytkownik X, wychodzący z założenia, że wszechwidzący i wszechwiedzący informatyk cały czas śledzi jego pulpit (pewnie od samego rana), zna każdy jego ruch więc pewnie już zna odpowiedź.
    - „Dzień dobry, a jaka jest treść błędu?” – pyta informatyk, który dopiero co wygrzebał się z innej sprawy i nie ma pojęcia że użytkownik X ma jakiś problem, a tym bardziej na czym on polega. Dopiero odebrał od niego telefon...
    - „No... nie wiem... Zamknąłem go już, tam był jakiś error... Ale to nie ja jestem informatykiem, dlatego pytam się Pana...” – user X nie mówi tego złośliwie ale sam ma wrażenie że stał się obiektem złośliwości – dlaczego ktoś się pyta go o coś, o czym i tak na pewno wie bo jest wszechwiedzący? Gra na zwłokę?
    - „Aby Panu pomóc potrzebna jest mi treść tego błędu” – próbuje wyjaśniać informatyk, zastanawiając się skąd tu wziąć informację o tym co tam faktycznie na ekranie wyskoczyło...
    - „Myślałem że mi Pan pomoże…” – mówi użytkownik X, już prawie pewny że odmawia mu się pomocy, bo przecież informatycy wiedzą wszystko a skoro ten konkretny nie chce to musi być złośliwość...

    W sumie proste nieporozumienie ale jednak informatyczna codzienność... W tym przykładzie informatyk naprawdę nie wie, jaki błąd na ekranie zobaczył użytkownik X i nie zawsze ma możliwość sprawdzić na jego komputerze co dokładnie się stało.
    Z kolei odnoszący wrażenie złego potraktowania użytkownik X, jest święcie przekonany że informatyk dokładnie zna przyczynę problemu tylko nie chce mu się udzielić odpowiedzi, celowo utrudnia, chce pokazać swoją wyższość albo jest darmozjadem, który tylko bierze pieniądze za „nic nierobienie”...

    Żeby było jeszcze ciekawiej, tu nikt nie chce źle ale po prostu brakuje odpowiedniej wymiany informacji. Przyjmowane są pewne skróty myślowe, szablony i to właśnie one decydują o trudności w porozumieniu się.
    Jeden ze znajomych administratorów, aby pokazać klientom dysproporcję w takiej sytuacji, szczerze odpowiadał „Szklaną kulę zostawiłem w domu”...
    Wyjaśnienie jest w zasadzie jedno.
    W zależności od sytuacji, programu, jego producenta, systemu operacyjnego i jego wersji, komputera, miejsca instalacji tego komputera, dostępu do Internetu i jego konfiguracji możliwe jest aby sprawdzić wprost przyczynę danego problemu albo nie i wymaga to dłuższego dochodzenia.
    Informatyk wie "kiedy jest tak, kiedy inaczej", a osobie "nie informatycznej" pozostaje przyjąć że czasami się da to ustalić od razu a czasem trzeba trochę poszperać, poszukać...

    Bywa że trzeba skojarzyć sporo faktów, dopytać o wcześniejsze zdarzenia, o których wie tylko użytkownik, pomóc mu sobie przypomnieć niektóre z nich. Dopiero wtedy ma się elementy układanki, które składa się w całość i można postawić diagnozę co dolega komputerowi.
    A czasami nie ma się wcale wszystkich niezbędnych informacji i wtedy można tylko zgadywać czy obstawiać co powoduje dany problem...

  2. Informatyk - kosmita z innej planety.Często spotykamy się z ogólną opinią że informatycy żyją w swoim świecie, nie można się z nimi dogadać, a jak już się zaczyna rozmawiać to wszystko co powiedzą, jest tak "informatyczne" że nawet jeśli brzmi znajomo i zrozumiale to i tak nie wiadomo o co chodzi - bo powiedział to informatyk :)

    Oczywiście nie wszyscy tak reagują, ale często zdarza nam się podczas rozmów z klientami iż mamy wrażenie że to co mówimy traktowane jest w szczególny sposób, choć my nie mówimy nic szczególnego. Nie operujemy żadnymi terminami informatycznymi.

    Dochodzi nawet do tego że mówimy "po przetłumaczeniu z informatycznego na ludzki to znaczy to..."  - dopiero wtedy te same słowa brzmią dla rozmówcy jakoś przejrzyściej i pojawia się uśmiech zrozumienia na twarzy naszego rozmówcy :)

    W praktyce jest tak że często od informatyka oczekuje się streszczenia w jednym zdaniu wielu różnych złożonych pojęć i relacji między urządzeniami, programami czy komputerami w sieci (i to nie jest jeszcze problem bo syntetycznie myśleć można), lecz do tego dochodzi konieczność zawarcia w tym jednym zdaniu całej wiedzy informatycznej, która jest niezbędna do zrozumienia tych informacji przez osobę nieinformatyczną.
    Bo jak tu odpowiedzieć klientowi kiedy serwer będzie z powrotem działał gdy faktyczny czas uruchomienia zależy od zjawiska całkowicie niematerialnego i siedzącego "w bebechach" systemu operacyjnego, zdarzającego się raz na 4 lata a być może związanego z błędem programisty, który u producenta pisał dany kawałek kodu i tak naprawdę często będącego sprawą typu "Z Archiwum X"?

    Sorry - w tego typu przypadkach prościej jest streścić całą brazylijską lub meksykańską telenowelę, nadawaną przez 10 lat, w dwóch słowach... :)

    I w tym trudnym momencie pojawiają się dwa podejścia do problemu od strony informatyków: jedni zaczynają mówić językiem informatycznym i mają nadzieję ze ktoś to zrozumie (najczęściej nie) i pewnie to jest źródłem tego mitu.
    Inni starają się tłumaczyć na "ludzki" mówiąc do klienta... To też nie zawsze wychodzi i pewnie od tego podejścia pochodzi kolejny mit...

  3. Informatyk - człowiek niekonkretny...
    Kolejny mit choć podobno w każdym micie jest ziarenko prawdy...

    Czy zauważyliście może że informatycy często zmieniają zdanie jeśli biorą się do jakiejś roboty?
    Pytacie ich "Ile to potrwa?" - admin na to "jeszcze pół godziny...".
    Przychodzicie za godzinę i pytacie o to samo. Nagle z 30 minut robią się dwie godziny, za dwie godziny jest już pół dnia, a za 4 godziny słyszycie "może do jutra"... Znany obraz? Chyba tak ;)
    Oszuści, darmozjady, krętacze? Nic podobnego choć rzeczywiście wymiana informacji nie jest w takich sprawach dobra i każda ze stron może mieć gruntownie inną ocenę tej sytuacji :)

    Najważniejsza zakulisowa informacja - informatyk podczas swojej pracy nie zawsze robi wszystko sam...
    Bardzo często efekty jego pracy to tak naprawdę efekty uruchomienia jakiegoś programu, który ma za zadanie zrobić to czy tamto... Czyli chcąc osiągnąć jakiś efekt, uruchamiam gotowy program który ma go osiągnąć dla mnie. Sam nie byłbym w stanie napisać takiego programu w 30 minut, ale pobranie go, zainstalowanie go i uruchomienie to rzeczywiście 5 minut. Zakładam że dalsza robota zajmie programowi kolejne 10 minut. Dlatego obiecuję komuś pół godziny...
    Cały ambaras w tym że programy też piszą ludzie więc zdarza się że nasz program-podwykonawca zrobi coś nie tak albo to co miał zrobić w 10 minut, robi w 140 minut... Ktoś po prostu nie przewidział zadania, które ja zafundowałem takiemu programowi.
    Problem największy w tym jako to wytłumaczyć zleceniodawcy, który cały czas myśli że to my sami "tymi ręcami" przestawiamy bity czy bajty w pamięci komputera...

    Robi się więc ZONK! gdy wychodzi np. że my staramy się zmusić zewnętrzne narzędzie do zrobienia tego co zlecił nam zleceniodawca a ono nie wiadomo dlaczego nie chce współpracować, wyświetla komunikaty, których jeszcze nie widzieliśmy, wiesza się w niespodziewanych momentach i robi inne, mało spodziewane rzeczy.
    Dlatego też tak często zmieniamy zdanie - na pytanie "na kiedy" podajemy po prostu aktualny stan prac i postępu - na daną chwilę.
    A że ten stan się zmienia z każdą operacją to nam, informatykom, wydaje się oczywiste...
    Innym niekoniecznie...

    Rozumiem jednak skąd może się brać brak zrozumienia. Pewne branże są bardziej przewidywalne.
    Jeśli przykładowo (żadnej urazy czy krytyki!) płytkarz bierze zlecenie na kafelki w łazience, to rzeczywiście może być zaskakujące dlaczego nagle w trakcie prac zmieniłby się gruntownie termin realizacji o 2 miesiące lub koszt tych prac o 400%.
    Niestety w IT często kafelkowanie łazienki 4 x 2 m okazuje się w rzeczywistości kładzeniem płytek w pałacu o 20 łazienkach... :)

  4. Informatyk - mega niedostępny człowiek widmo na którego wizytę czeka się godzinami czy dniami.
    To też bardzo często spotykane stwierdzenie.

    Sporo osób potrzebujących pomocy informatycznej, spodziewa się że informatyk to ktoś w rodzaju kelnera - powinien pojawić się w mgnieniu oka gdy go potrzebujemy, szybko zrealizować nasze zlecenie i nie zadawać zbędnych pytań.
    Jednak w realu bywa inaczej i informatyk (etatowy czy z zewnętrznej firmy) to ktoś, do kogo trafia często dość dużo tematów, nierzadko jednocześnie. W efekcie gdy łapiemy go telefonicznie, najcześciej trafiamy w moment gdy już walczy z innym, wcześniejszym tematem, nierzadko dwoma naraz. 
    Jeśli bardzo chce załatwiać wszystkie sprawy naraz, pewnie weźmie i Wasz temat, jednak wiadomo jak to jest gdy się robi kilka rzeczy naraz - albo można się pomylić, albo zrobić którąś z nich niedokładnie lecz na pewno nie będzie to sprawne działanie.
    Inni podejdą może inaczej i ustawią takie zlecenia w kolejkę, robią naraz tylko jedną sprawę, dopiero jak domkną jakiś odcinek, przerzucają się na następny temat. Mam wrażenie że zaliczam się do tej drugiej grupy. 
    Takie podejście często skutkuje tym że sprawa musi troszkę odczekać na swoją kolej - ale chyba lepiej zrobić coś dobrze choć trochę później niż zrobić coś byle jak albo co gorsza, popełnić jakiś błąd - a błędy w informatyce bywają bardzo kosztowne...

    Inna sprawa że z tą realizacją tematu od ręki też bywa różnie - sporo problemów informatycznych nie daje się rozwiązać w 5 minut i wymaga przygotowań lub nie może zostać zrealizowanych w godzinach pracy.
Czy mógłbym coś doradzić tym, którzy nie mogą z jakiegoś powodu skutecznie porozumieć się z informatykiem? 
Na pewno to aby na ile to możliwe spróbować zapoznać się z realiami pracy tej grupy zawodowej, postawić się trochę na ich miejscu, zastosować się do ich próśb, dostarczyć niezbędnych danych. Jednak ważne jest również abyśmy przekazywali informacje na temat priorytetów swojej pracy czy celu korzystania z komputera, sieci komputerowej lub serwera. 
Informatycy bowiem nie zawsze znają te Wasze realia czy priorytety, więc bywa że dochodzi do nieporozumień i problemy nie są usuwane w sposób najmniej kolidujący z Waszym sposobem działania.

Outsourcing informatyczny IT - a co to takiego ?

Obecna sytuacja gospodarcza wymusza na niejednym przedsiębiorcy czy osobie decyzyjnej w firmie bądź instytucji konieczność redukcji kosztów. Jednym z obszarów gdzie staje się to możliwe jest opieka informatyczna firmy. Decyzja o obniżeniu kosztów obsługi informatycznej może być dla kierownictwa decyzją dość trudną ponieważ:
  • gdy jakikolwiek składnik systemu informatycznego zaczyna szwankować, pomoc informatyka staje się niezbędna i to najczęściej natychmiast. W związku z tym większość firm czy instytucji decyduje się opłacać etat informatyka aby zapewnić jego ciągłą dostępność. Jednak w sytuacji gdy awarie są sporadyczne, ich usuwanie nie wypełnia przecież całego etatu - a więc podmiot ponosi koszty znacznie wyższe niż koszty faktycznej pracy informatycznej,  
  • z drugiej strony rezygnacja z etatu informatyka zmusza właścicieli czy dyrektorów do przekazania rozwiązywania wszelkich trudnych sytuacji informatycznych w ręce osób, które mają częściową, niepełną wiedzę informatyczną (czasami nawet dość przypadkową) - co w większości skutkuje nieefektywnymi działaniami, nie przynoszącymi efektów firmie.  
Złotym środkiem staje się tutaj wsparcie profesjonalisty, rozliczane wg faktycznie wykonanej pracy. I to właśnie oznacza usługa outsourcingu informatycznego (IT), oferowana także przez SysMedic czyli przez konkretnie osoby: +Wojciecha Kaczmarka i +Macieja Urbaniaka
Jeśli chcą Państwo:
  • nie ponosić kosztów związanych z utrzymaniem etatu informatycznego w firmie,
  • otrzymać szybko profesjonalną pomoc informatyczną w przypadku awarii czy niespodziewanych problemów,
  • otrzymać kompleksową i bieżącą opiekę informatyczną,
  • skorzystać z naszych usług doradczych w zakresie rozwoju infrastruktury informatycznej, zakupu sprzętu czy oprogramowania, zastosowania zabezpieczeń w Państwa firmie itp.,
  • wdrożyć oczekiwane rozwiązania informatyczne skutecznie i efektywnie.
Zapraszamy do kontaktu - po analizie Państwa potrzeb sporządzimy dla Państwa wycenę świadczenia usługi outsourcingu informatycznego (IT) a także uczynimy ją jeszcze bardziej atrakcyjną poprzez negocjacje.

Ratunku, mam Windows 8 w komputerze - co robić

“Ratunku, mam Windows 8 w komputerze - co robić?”

Tak właśnie może wyglądać reakcja wielu osób, przyzwyczajonych do klasycznego sposobu obsługi systemu operacyjnego po bliższym spotkaniu z nowym produktem Microsoftu czyli Windows 8.
 
Wbrew tytułowi, wcale nie zamierzam udowadniać że Windows 7 czy Windows XP były lepsze, czy też Windows 8 jest gorszy. Każdy z tych systemów jest przydatny a moim zadaniem jest przybliżyć jak bezproblemowo przesiąść się na Windows 8. Oczywiście przybliżenie wszystkich informacji o Windows 8 to nie jest to temat na jeden wpis, tutaj chcę się skupić na tych najważniejszych z punktu widzenia osoby przyzwyczajonej do wcześniejszych wersji systemu Windows a obecnie stojącej przed opcją czy koniecznością zmiany na Windows 8 na typowym PC czy laptopie.
 
Zaznaczam też że wszystkie poniższe informacje to moje własne obserwacje - oficjalny materiał dotyczący tego systemu może wskazywać więcej cech godnych uwagi albo podkreślać zupełnie inne cechy niż ja.
 
Innymi słowy - opisuję to co mi wpadło w oko i co mi osobiście przypadło do gustu.
 
Przede wszystkim proponuję nie wpadać w panikę i nie martwić się na zapas a raczej przyjrzeć się dokładnie temu, co się zmieniło w Windows 8 i dostrzec co te zmiany wnoszą dobrego.
 
Windows 8 nie jest tak bardzo różny od jego poprzedników, jak się na pierwszy rzut oka wydaje. Za jego pomocą nadal można osiągać to samo, co wcześniej robiliśmy za pomocą Windows 7, Vista czy XP. Możemy osiągnąć nawet więcej jeśli dostrzeżemy jego zalety czy nowe funkcje, a w niektórych sytuacjach daje się zauważyć wyższą wydajność Windows 8 względem poprzedników.
 
Zmienił się mechanizm uruchamiania programów - czyli zamiast Menu Start na pulpicie mamy ekran Metro z prostokątami, oznaczającym poszczególne aplikacje czyli “kafelki” na pełnym ekranie poza pulpitem.
 
Jednak nadal po staremu możemy dodać ulubiony program do paska zadań czy jako skrót na pulpit. Dodatkowo - uruchomienie aplikacji “z kafelka” często przenosi nas z powrotem na pulpit gdzie już w tradycyjny sposób obsługujemy aplikacje. Czyli wcale nie jest tak bardzo “inaczej” niż na początku to wygląda...
 
Pozornie brakuje menu start a część funkcji osiągalna jest dopiero po najechaniu kursorem myszki w jeden z rogów ekranu. Takie zmiany rzeczywiście na pierwszy rzut oka mogą przerażać, bo dla wielu osób Menu start jest podstawą korzystania z komputera a nagle pojawiające się i znikające opcje dodatkowe, ukryte pod narożnikami ekranu, mogą wprowadzać sporo zamieszania.
 
Jednak jak się okazuje, funkcjonalność Menu Start nadal jest dostępna - tylko że trochę inaczej:
  • metoda 1: wystarczy że kursor myszki przesuniemy w lewy dolny róg ekranu, pojawi się nam miniaturka ekranu z kafelkami i po jej kliknięciu trafiamy na ekran Metro gdzie możemy wybrać sobie aplikację do uruchomienia,
  • metoda 2: wciśnięcie na klawiaturze przycisku z logiem Windows i wpisanie w polu wyszukiwania początku nazwy poszukiwanej aplikacji. Najczęściej już po kilku wprowadzonych znakach system zaproponuje właściwą aplikację.
  • kolejną opcją staje się oprogramowanie Classic Shell jeśli jednak totalnie brakuje nam Menu Start i nie jesteśmy w stanie zaakceptować zmienionego sposobu uruchamiania programów, proponowanego przez Windows 8.
    Jest to bezpłatny, zewnętrzny program, pozwalający uzyskać bardziej typowe menu startowe, zbliżone wyglądem do tradycyjnego menu, mające parę udogodnień a jednocześnie nie wykluczające korzystania z aplikacji Metro.
Zamykanie systemu też gdzieś wyparowało? Nie, jest tylko w innym miejscu.
 
Gdy udamy się myszką do prawego dolnego rogu ekranu, pojawi się całe “latające” menu wraz z zegarem. Jednym z elementów jest specyficzny “trybik” czy ustawienia. Najprościej mówiąc - te ustawienia tyczą się często bezpośrednio tego co mamy na ekranie (czyli np. opcji danej aplikacji Metro) ale znajdziemy też tam symbol oznaczający zamykanie czy ponowne uruchamianie systemu Windows. Oczywiście działa też bardziej tradycyjna metoda zamykania programów czy systemu - lewy ALT+F4.
 
 O co chodzi z tymi pełnoekranowymi aplikacjami Metro?
 
W Windows 8 kolejną nowością jest to, że oprócz klasycznych programów, uruchamianych w ramach typowego pulpitu, możemy uruchomić aplikacje, działające w trybie pełnoekranowym, działające zamiennie z typowym pulpitem i przypominające bardziej rozwiązania ze smartfonów czy tabletów niż typowe programy z systemu Windows. To na początku może wydawać się utrudnieniem, ale jak się przyjrzeć bliżej, ma to szereg zalet:
  • aplikacje pełnoekranowe Metro są tak skonstruowane, że pozwalają się łatwo skupić tylko na jednym zadaniu (np. pisaniu maila) - aplikacje zajmują cały ekran, są często bardzo czytelne, z dużymi literami, kontrastowymi kolorami, żadnych dodatkowych ozdobników rozpraszających uwagę - dosłownie czarno na białym. Nie trzeba chyba wyjaśniać jakie to ma znaczenie na małym ekranie albo ekranie z bardzo dużą rozdzielczością, gdzie typowe czcionki są bardzo małe,
  • widoczny obszar ekranu możemy podzielić pomiędzy pulpit a taką właśnie aplikacją - to bardzo ułatwia pracę - czyli możemy na większej części ekranu w ramach typowego pulpitu pracować np. w arkuszu kalkulacyjnym czy przeglądać Internet a w wąskim pasku po lewej czy prawej stronie czatować na Skype. To już nie jest jeden ekran z dwoma oknami - to są jakby dwa ekrany obok siebie.
  • jednym ruchem myszki do lewego górnego rogu ekranu możemy przeskoczyć pomiędzy aplikacją pełnoekranową a typowym pulpitem i z powrotem albo do innej aplikacji pełnoekranowej - czyli pomimo że często na ekranie mamy tylko jedną aplikację, łatwo jest przełączyć się na inną. To na pewno docenią osoby, które mają coraz więcej doświadczeń ze smartfonami.
  • zauważyłem że dość często w ramach różnych aplikacji Metro działa mechanizm sprawdzania pisowni, również w języku polskim - jak dla mnie bardzo przydatna opcja. 
  • aplikacje Metro, przekazujące nam jakieś kluczowe informacje, pokazują te najistotniejsze na ekranie Metro w ramach danego kafelka - czyli np. aplikacja pogodowa w ramach swojego kafelka na ekranie Metro, pokazuje aktualną temperaturę czy pogodę w naszej ulubionej lokalizacji już na liście aplikacji - w efekcie często nie musimy nawet uruchamiać danej aplikacji aby uzyskać najważniejsze informacje.
    Jeśli ten fakt powiążemy z możliwością poukładania kafelków na ekranie Metro tak jak chcemy, dostajemy niezłe centrum sterowania, gdzie od razu po zalogowaniu się dostajemy najważniejsze informacje, a żeby sprawdzić maila, nie musimy w ogóle wykonywać typowych czynności typu “znaleźć program pocztowy w Menu start, uruchomić go i poczekać aż będzie gotowy do pracy i ściągnie pocztę, dopiero w jego oknie dokopać się do danego maila i go przeczytać” - innymi słowy duże ułatwienie. 
  • aplikacje Metro powiązane są z aplikacją Windows Store® - czyli takim odpowiednikiem Google Play® w Androidzie czy Apple Store® w komputerach/urządzeniach Mac.
    W efekcie popularne serwisy jak np. Dobreprogramy czy Goldenline, mamy dostępne również jako aplikację, którą po prostu uruchamiamy “z kafelka” a nie w tradycyjny sposób - czy poprzez stronę www. To również spore ułatwienie jeśli nasz ulubiony serwis przygotował aplikację dla Windows 8.
    Mamy tu kolejny “smartfonowy” ruch ze strony Microsoftu - przecież jeśli w telefonie z Androidem chcemy sprawdzić w sklepie cenę produktu na Ceneo, nie wchodzimy na małym ekraniku na Ceneo przez www, tylko korzystamy z gotowej aplikacji... Taka sama zasada zaczyna przyświecać również twórcom Windowsa - chodzi o skorzystanie z aplikacji a nie o czasami mozolne logowanie się przez stronę www. 
  • wspomniany Windows Store® ma również jedną ogromną zaletę - podobnie jak inne markety aplikacji czy centra oprogramowania w Linuxie, pozwala w jednym miejscu, praktycznie jednym kliknięciem zaktualizować nasze aplikacje. Zauważymy jaka to różnica pomiędzy tradycyjnym podejściem do programów w Windows, gdzie trzeba było aktualizować każdy zewnętrzny program osobno a jedynie produkty Microsoftu aktualizowały się w miarę automatycznie w Windows Update.
 
Windows 8 ma odświeżony i bardziej funkcjonalny Menedżer zadań niż poprzednie wersje systemu.
 
To na pewno docenią wszyscy miłośnicy śledzenia tego jak bardzo nasz komputer wykorzystuje zasoby a także informatycy, diagnozujący problemy z wydajnością komputerów. Jest on jednak na tyle intuicyjny, że osoby przyzwyczajone do poprzedniej wersji, nie będą miały większych problemów z jego wykorzystaniem.
 
Znany wszystkim Windows Explorer to teraz File Explorer, wyposażony dodatkowo w tzw. wstążkę czyli system menu znany przede wszystkich z nowszych wersji Microsoft Office. To pozwala nam łatwiej przeprowadzać operacje na plikach, mamy też możliwość “zapauzowania” działań na pliku jak kopiowanie.
 
Jednak działają również stare przyzwyczajenia typu CTRL-C/CTRL-X i CTRL-V albo menu spod prawego przycisku myszy.
 
Czy coś nie będzie działać pod Windows 8? Takie pytanie na pewno zada wiele osób, doświadczonych różnymi niespodziankami po premierze Visty. Z moich doświadczeń wynika że generalnie coś co działało na Windows 7, będzie również działać na Windows 8 na podobnych zasadach. Podobnie wygląda kwestia wersji systemu (64 czy 32 bitowy) jak wcześniej w Windows 7.
 
Jedyny wyjątek, jaki na razie spotkałem to fakt, że w wersji Professional i wyższych Windows 7, mogliśmy skorzystać z wirtualnej maszyny z Windowsem XP do uruchamiania mniej kompatybilnych, starszych aplikacji. Teraz ta funkcjonalność jakby zniknęła dla odpowiadającej jej wersji Windows 8.
 
Podsumowując - tak jak wspomniałem na początku, tych na pierwszy rzut oka niewidocznych zalet w Windowsie 8 jest dużo więcej. Mi zależało przede wszystkim na pokazaniu jak “nowe” daje większe możliwości przy zachowaniu większości dotychczasowych funkcjonalności “starego”. Chodziło też o pokazanie też tego że przesiadka na Windows 8 wcale nie oznacza automatycznie uczenia się wszystkiego od nowa. Owszem - jest trochę inaczej, zwłaszcza na początku, ale nie oznacza to progu nie do przeskoczenia, a czasami praktycznie nie zauważamy tego progu.
 
Dlatego też polecam zapoznanie się z Windows 8 przy najbliższej okazji aby chociażby wyrobić sobie własne zdanie na temat tego systemu.

wtorek, 2 lipca 2013

Systemy DLP czyli zapobiegamy wyciekowi danych firmowych

 
Wszyscy wiemy jak wielką wartość ma w dzisiejszych czasach informacja. Można chyba zaryzykować stwierdzenie że jest to złoto XXI wieku.

Bez względu na to czy chronimy nasze własne dane osobowe, adres zamieszkania, PIN do karty kredytowej, adres mailowy lub też listę klientów, dane finansowe naszej firmy czy też dane pacjentów w gabinecie medycznym, informacje te są dla nas czy naszej firmy dosłownie na wagę złota.

Co więc możemy zrobić, aby nie dostały się one w niepowołane ręce?

Przede wszystkim powinniśmy się przyjrzeć w jaki sposób zorganizowana jest nasza firma czy instytucja i spróbować postawić się w sytuacji osób, które mogłyby ewentualnie chcieć wejść w posiadanie naszych danych.
Innymi słowy – zastanówmy się jak spróbowalibyśmy ukraść dane z naszej własnej firmy. Najprawdopodobniej dopiero wtedy uświadomimy sobie jak wiele luk, pozwalających na wyciek informacji istnieje w naszym otoczeniu.

Nieuchronnie nasze pierwsze podejrzenie padnie na komputery firmowe i obsługujących ich pracowników. Może nagle uświadomimy sobie że pod pozorem prostych i niewinnie wyglądających czynności robią oni coś niedobrego dla firmy…

Przykładowo:
  • wpięty do komputera służbowego przez kabel USB telefon, smartfon czy odtwarzacz MP3 wcale niekoniecznie tylko się ładuje – może przecież pracować jako pendrive a pracownik może za jego pomocą właśnie wynosić dane z firmy pod pozorem ładowania urządzenia,
  • firmowy aparat fotograficzny to też z punktu widzenia komputera nośnik wymienny… Podróżujący pomiędzy firmą a domem pracownika (np. w ramach wyjazdów w delegacje) może również służyć do wycieku informacji,
  • pracownik, który korzysta z prywatnego Gmaila w firmie, wchodząc na swoją pocztę, uruchamia również dość efektywny własny dysk online za pomocą którego dość łatwo wyprowadzić na zewnątrz firmowe dane,
  • dostęp do portali społecznościowych jak Facebook czy Google+ to z jednej strony miły gest w kierunku naszych pracowników ale również niebezpieczeństwo dla naszej firmy. Przecież w każdej chwili mogą tam opublikować coś co jest tajemnicą firmy – np. projekt kampanii reklamowej, projekt nowego modelu produktu a może jakiś mało smaczny obrazkowy żart firmowy, który do tej pory mieszkał tylko na firmowym intranecie,
  • a może spędza nam sen z oczu fakt, że pracownik w ferworze walki ze swoimi bieżącymi zadaniami, wyśle omyłkowo mailem strategiczny dokument wewnętrzny do klienta, P. Andrzeja, zamiast do P. Andrzeja z działu finansów?
  • wyciek informacji możliwy jest również przy pośrednim udziale pracowników poprzez zainfekowane wirusami czy trojanami komputery firmowe. W tym przypadku pracownik może się do tego „przyczynić” poprzez próby otwarcia na komputerze zainfekowanego nośnika prywatnego czy odwiedzanie różnych niechcianych czy niebezpiecznych stron www, oczywiście nie związanych z zadaniami służbowymi.
To tylko przykładowe sytuacje, które zdarzają się praktycznie codziennie w większości firm. Oczywiście niekoniecznie kończą się one katastrofą dla firmy, ale stanowią potencjalny słaby punkt, który w niesprzyjających okolicznościach mogą doprowadzić do firmowej klęski.
 
Czy jest na to lekarstwo? Co możemy zrobić?
 
Jednym z ważniejszych sposobów ochrony przed wydarzeniami klasy przedstawionej powyżej jest wdrożenie systemu DLP (Data Leak/Leakage/Loss Protection/Prevention), którego głównym zadaniem będzie ochrona naszego systemu przed wyciekiem danych właśnie w analogicznych jak przykładowe, powyższych sytuacjach.
 
System taki ma za zadanie monitorować przepływ informacji na poziomie stacji roboczej i działań podejmowanych przez pracownika, celem wyłapania działań podejrzanych lub w oczywisty sposób zakazanych. W zależności od kwalifikacji zdarzenia i naszych wytycznych system może blokować takie działanie lub tylko nas o nim informować. Niezależnie możliwe jest przechwycenie treści informacji, której operacja dotyczyła aby mieć pełny obraz tego co faktycznie pracownik próbował wysłać, zabrać na pendrive itp.
 
Jednym z systemów, które proponujemy i wdrażamy klientom w takich przypadkach jest system Devicelock. Z pełnymi informacjami na temat jego możliwości możemy zapoznać się na stronach producenta i dystrybutora na terenie Polski.
 
Zapraszamy również do kontaktu z nami w celu ustalenia zakresu i okoliczności planowanego potencjalnego wdrożenia systemu DLP.

Do czego mogą się przydać aplikacje w wersji portable?

Być może wielu z nas zetknęło się juz z tym pojęciem - “aplikacje portable”, “aplikacje na pendrive”, “PortableApps” itp.

Programy “portable” to oprogramowanie dla systemu Windows w odpowiednio przygotowanej wersji, które można łatwo zainstalować sobie na swoim pendrive, dysku przenośnym czy na dysku “chmurowym” i korzystać tam gdzie chcemy - na innych komputerach bez konieczności instalacji tego oprogramowania. Przenoszone w ten sposób programy trzymają swoje ustawienia ze sobą w swoim folderze.
Oznacza to że możemy na pendrive skonfigurować sobie np. program pocztowy w wersji portable i wszędzie gdzie go uruchomimy, będzie on zachowywał się tak jakbyśmy cały czas korzystali ze swojego komputera - będzie pokazywał te same wiadomości, pamiętał ustawienia kont pocztowych czy listę kontaktów. To samo tyczy się oczywiście innego oprogramowania - przeglądarki, komunikatory, programy do odtwarzania multimediów czy synchronizacji danych z “chmurą”, programy narzędziowe, biurowe gry i wiele wiele innych.

Dlaczego aplikacje portable są przydatne?

Jest sporo korzyści z ich używania, wymieniam te, które mi się wydały sensowne:
  • są niezależne od systemu operacyjnego i go nie zaśmiecają - typowe aplikacje często dodają swoje pliki w systemie operacyjnym czy wpisy w rejestrze, aplikacje portable trzymają wszystkie swoje ustawienia w postaci plików w swoim folderze i nie rozrzucają ich w innych miejscach.
    To oznacza że opłaca się używać aplikacji portable nawet wtedy gdy nie potrzebujemy ich formy przenośnej. Wystarczy bowiem że na naszym komputerze stworzymy sobie katalog z aplikacjami portable w naszych dokumentach czy na drugiej partycji dysku i będziemy mogli z nich korzystać jak z tradycyjnych aplikacji - wystarczy skorzystać z menu PortableApps.com albo zrobić skróty do pulpitu czy menu start dla tych aplikacji w ich folderach.
  • gdy aplikacje portable będą zainstalowane na innej partycji, przeinstalowanie systemu operacyjnego bez naruszania zawartości drugiego dysku uchroni nas przez koniecznością ich reinstalacji. Po prostu po ponownym zainstalowaniu systemu operacyjnego, aplikacje portable będą od razu gotowe do użycia - wystarczy je tylko uruchomić przez menu PortableApps.com albo bezpośrednio poprzez ich pliki wykonywalne.
  • analogicznie w przypadku reinstalacji systemu aplikacje portable wystarczy tylko uruchomić gdy są zainstalowane na zewnętrznym nośniku. Nie trzeba uprzednio zabezpieczać i potem przywracać ustawień czy konfiguracji naszych ulubionych programów portable.
  • aplikacje portable mogą być instalowane również na nośnikach szyfrowanych, np. za pomocą programu TrueCrypt - w efekcie otrzymujemy nasze własne, zabezpieczone szyfrowaniem, środowisko pracy - naszą pocztę czy przeglądarki z zapisanymi hasłami i zakładkami, dokumenty, programy biurowe, komunikatory itd. Możemy z niego korzystać nie pozostawiając naszych danych na komputerach, na których uruchamiamy programy z tego nośnika.
  • aplikacje portable łatwo jest zabezpieczyć przy pomocy różnego rodzaju kopii zapasowych - wystarczy że wykonamy kopię folderu Portable, zawierającego naszą instalację aplikacji portable w dowolny sposób - ręcznie lub dowolnym programem do wykonywania kopii zapasowych i potem w razie konieczności czy potrzeby, możemy tą kopię przywrócić,
  • dzięki aplikacjom portable możemy znaleźć wiele darmowych czy działających w ramach licencji open source, odpowiedników programów typowo komercyjnych,
  • środowisko aplikacji portable na pewno docenią informatycy - znacznie ułatwia ono wykonanie różnych prac na serwisowanych komputerach bez instalowania dodatkowego oprogramowania.
Skąd wziąć oprogramowanie portable?

Najprościej - wyszukać w Google nazwę naszej ulubionej aplikacji w połączeniu ze słowem “portable”.

Druga metoda (często będąca wynikiem działania pierwszej) i chyba najczęściej używana to wejście na stronę PortableApps.com i pobranie programu pozwalającego w łatwy sposób zainstalować na naszym nośniku aplikacje przenośne i zarządzać nimi. W efekcie działania tego programu dostajemy gotowy nośnik portable, który dodatkowo uruchamia program PortableApps.com od razu po włożeniu do komputera, który ma ustawione automatyczne uruchamianie nośników wymiennych.

Co jeszcze nam ułatwia program z PortableApps.com?
Kilka spraw:
  • pozwala w łatwy sposób instalować nowe programy portable - na zasadzie wyboru z listy dostępnych po nazwie albo po kategorii,
  • pozwala automatycznie aktualizować już zainstalowane oprogramowanie do nowszych wersji gdy te się pojawią - moje doświadczenie jest takie, że praktycznie codziennie wychodzą jakieś aktualizacje do zestawu zainstalowanych przeze mnie programów. To dużo łatwiejsze niż aktualizować każdy program z osobna.
  • program ten ułatwia także wygodne przechowywanie dokumentów w formie portable, dostępnych z poziomu menu programu PortableApps.com.
  • pozwalała łatwo wyszukiwać potrzebną aplikację wśród już zainstalowanych,
  • pozwala nam zmieniać wygląd menu PortableApps.com do naszych upodobań.
Podsumowując - aplikacje portable, a szczególnie te oparte o platformę PortableApps.com to bardzo wygodna i efektywna alternatywa tradycyjnej instalacji oprogramowania w systemie Windows. Przenośna, nie zaśmiecającą systemu, często bezpieczniejsza, bardziej centralnie zarządzana i łatwa w aktualizacji.
 
 

Routery 3G - czyli internet w namiocie

Kontynuując tematy GSM, dzisiaj coś z pogranicza telefonii komórkowej i dostępu do Internetu. Poniższe pomysły mogą się przydać większości zwykłych użytkowników.

Bierzemy na warsztat routery 3G i zastanawiamy się, co można za ich pomocą ciekawego zrobić.

Najpierw może dla niewtajemniczonych o tym, co to jest router 3G.

Najczęściej jest to niezbyt drogie urządzenie, dostępne razem z typowymi routerami domowymi w sklepach komputerowych czy marketach z elektroniką, ale można też oczywiście kupić go w Internecie.

Bez względu na to czy mamy do czynienia z routerem 3G przenośnym czy stacjonarnym, jego zadanie właściwie jest jedno - umożliwić nam skorzystanie z Internetu poprzez lokalną sieć WiFI tworzoną przez taki router, który z kolei z Internetem łączy się przez modem 3G, wpięty przez USB.

Czyli do gniazda USB routera wpinamy modem USB, router za jego pomocą łączy się z Internetem (jak zwykły komputer) a następnie ten sygnał rozprowadza za pomocą sieci WiFi czy po kablu ethernetowym.

W typowych wersjach stacjonarnych router 3G wygląda podobnie jak zwykły domowy czy biurowy router WiFi, ma antenkę lub antenki, podobną obudowę i podobnie się zarządza przez przeglądarkę internetową. Różni się tym, że najczęściej ma gniazdo USB służące do podłączenia modemu 3G na USB - takiego samego jak się wpina do komputera bezpośrednio.

Przykładowy model stacjonarnego routera 3G to TP-Link TL-MR3420.
Z kolei wśród modeli przenośnych możemy wymienić chociażby TP-Link TL-MR3020 czy ASUS WL-330N3G.

Routery 3G występują również w formie przenośnej i ta forma przynosi nam również wiele korzyści.

Router przenośny najczęściej jest mały - wielkości talii kart lub zbliżony, można go bez problemu schować do kieszeni, ma wbudowaną antenę WiFi, zasilany jest poprzez kabelek USB, który włączamy do portu USB laptopa, komputera stacjonarnego, dodanego zasilacza, przypominającego ładowarkę do telefonu komórkowego - a nawet przy odpowiedniej przejściówce - do gniazda zapalniczki w samochodzie.

Obrazek przedstawiający ruter TP-Link TL-MR3020
Dlaczego dostęp do Internetu przez GSM/3G?

Dobre pytanie :) Jest kilka przyczyn, ale najważniejsze są takie:
  • potrzebujemy przenośnego dostępu do Internetu (w pracy, na uczelni, w życiu prywatnym, w podróży czy na wakacjach),
  • mieszkamy w miejscu gdzie jest problem z dostępem do Internetu od dostawców stacjonarnych albo ich oferta jest niezbyt korzystna, a jednocześnie jest odpowiedni zasięg sieci komórkowej, pozwalający na szybsze transmisje danych,
  • potrzebujemy awaryjnego dostępu do Internetu bo stacjonarny dostęp sprawia problemy techniczne.

Pomysły na zastosowanie routera 3G:
  •  niektóre modele w przypadku awarii łącza stacjonarnego potrafią automatycznie przełączać się pomiędzy stacjonarnym dostępem do Internetu (np. przez kabel Ethernet, z modemu ADSL czy kablówki) a 3G.

    Jest to świetna alternatywa dla biur i firm, gdzie dostęp do Internetu bardzo często decyduje o możliwości funkcjonowania danej firmy. Jednak i w domu to się przyda gdy nasz „kablowy” dostawca Internetu zawodzi.
  • dzięki routerowi 3G możemy w łatwy sposób zapewnić dostęp do Internetu w naszym biurze jeśli nie jest ono zbyt duże (np. do 10 komputerów przy dobrym zasięgu 3G) i mamy problem ze zorganizowaniem tego dostępu od lokalnego operatora po kablu albo jest to biuro tymczasowe.
  • router 3G, bez względu na to czy tylko 3G czy kombinacja kabel/3G, świetnie nadaje się do rozdzielania dostępu do Internetu mobilnego poprzez WiFi czy lokalną sieć LAN - druga to najważniejsza zaleta względem typowego sposobu korzystania z Internetu przenośnego za pomocą wtykania modemu USB bezpośrednio do komputera,
  • zgodnie z tytułem artykułu, można taki router zastosować nawet w nietypowych warunkach jak chociażby właśnie na kempingu gdzie wystarczy że router 3G z modemem zasilimy poprzez odpowiednią przejściówkę z gniazda zapalniczki w samochodzie i przez WiFi mamy w promieniu kilkudziesięciu metrów od auta dostęp do Internetu analogiczny jak w domu czy w biurze.
  • Na tej samej zasadzie możemy również wykorzystać dowolne dostępne źródła stałego zasilania aby stworzyć sobie przenośną sieć WiFi i źródło dostępu do Internetu za pomocą naszego routera 3G.

    Wystarczy bowiem że w schronisku, pensjonacie czy restauracji lub kawiarni, za zgodą właściciela podłączymy nasz router 3G z modemem USB poprzez zasilacz sieciowy do zwykłego gniazdka sieciowego i już mamy naszą własną sieć lokalną cały czas z nami.
  • można oczywiście również taki router 3G zasilać z laptopa poprzez gniazda USB i dzięki temu nawet gdy nie mamy samochodu i źródła stałego zasilania, z Internetu może skorzystać więcej niż tylko jedna osoba.
  • jeśli nasz modem USB nie posiada simlocka, jesteśmy za granicą i potrzebujemy stworzyć sobie nasz własny dostęp do Internetu – wystarczy że w lokalnym sklepie, kiosku itp. nabędziemy „miejscową” kartę SIM prepaid, w ramach oferty umożliwiającej korzystanie z Internetu. Po włożeniu do naszego modemu tej „tubylczej” karty prepaid i przekonfigurowaniu naszego routera 3G wg wytycznych tego miejscowego operatora, nawet w dość egzotycznym kraju, możemy cieszyć się własnym dostępem do Internetu w miejscowej cenie. Oczywiście w takiej sytuacji warto jest zapoznać się z warunkami świadczenia usług przez miejscowego operatora zanim zakupimy taką kartę i zaczniemy z niej korzystać.
 Czy musimy kupować router 3G?

Niekoniecznie :) Często bowiem nosimy go od dawna w swojej kieszeni w postaci naszego smartfona.
Spora ilość urządzeń z Androidem ma taką funkcję udostępniania łącza internetowego poprzez wbudowaną kartę WiFi lub przez kabelek USB.

Podobnych funkcjonalności możemy szukać też gdzie indziej, np. w niektórych modelach Nokia, telefonach z systemem Windows Phone, iPhone od wersji 3G wzwyż, części telefonów Samsunga z systemem Bada a także urządzeniach Blackberry. Najlepiej więc sprawdzić w instrukcji swojego urządzenia czy taka funkcja jest w nim obsługiwana.

Trzeba pamiętać że tutaj jesteśmy ograniczeni pakietem transferu danych typowym dla abonamentu „głosowego” – czyli albo pula ta jest dużo mniejsza niż w typowych pakietach do transmisji danych albo takiego pakietu nie ma uruchomionego wcale i każde połączenie internetowe z naszego telefonu będzie wiązało się z dodatkowymi opłatami – a więc potrzeba najpierw uruchomić taki pakiet danych po stronie operatora.

Przykładowo porównując oferty abonamentowe - jeśli dzisiaj standardem jest ok 5 – 10 GB transferu dla typowej karty SIM, związanej z modemem USB (czyli przeznaczonej do łączenia się z Internetem) to typowy pakiet danych dla smartfona to przeciętnie 0,5 GB miesięcznie. Oznacza to że z takiego dostępu opłaca się korzystać sporadycznie albo do przekazywania niewielkiej ilości danych.

Wyjątkiem są sytuacje gdzie operator pozwala nam wykupić pakiet o większej ilości danych w telefonie, porównywalny z pakietem dla typowego modemu USB.

Na co należy uważać czy zwracać uwagę w przypadku Internetu poprzez 3G/GSM?

Jest kilka spraw, pozornie oczywistych ale dla pewności pozwolę sobie o nich napisać:
  • pakiet transferu danych – zdecydowana większość operatorów w Polsce i za granicą nadal rozlicza nas z ilości wykorzystanych danych w ramach abonamentu miesięcznego czy prepaid. Oznacza to że jeśli go przekroczymy, w zależności od operatora i oferty, stracimy możliwość korzystania z tej transmisji danych, znacznie spadnie jej prędkość do poziomu znacznie utrudniającego korzystanie z takiego dostępu albo nawet poniesiemy dodatkowe opłaty.

    Dlatego też, korzystając z dostępu 3G/GSM, musimy brać pod uwagę jaką ilością transferu dysponujemy oraz fakt że komputery z reguły wykorzystują jej znacznie więcej niż smartfony czy tablety – chociażby dlatego że starają się pobierać aktualizacje systemu Windows czy ładują pełne a nie mobilne wersje stron www.

    Dodatkowo na komputerach często mamy zainstalowane aplikacje trzymające dane „w chmurze” jak Dropbox czy Skydrive i bezpośrednio po uruchomieniu systemu komputer będzie chciał przeprowadzić ich synchronizację, często zużywającą wiele megabajtów danych. To zjawisko się zwielokrotni jeśli wpuścimy do naszej sieci parę osób ze swoimi komputerami.

    Dlatego nasz pakiet transferu danych powinien być dopasowany do takiego zapotrzebowania jakie powstanie w wyniku udostępnienia naszego pakietu internetu mobilnego innym osobom.

    Moje własne, przykładowe obserwacje są takie, że pojedyncza, kilkugodzinna sesja jednego komputera z systemem Windows, polegająca na przeglądaniu stron czy odpisywaniu na maile, bez oglądania filmów na YouTube itp. potrafi „zjeść” kilkaset MB.

    Czyli jeśli wyjeżdżamy na tydzień, planujemy korzystać z routera 3G w 3 osoby to wychodzi nam np. 300 MB x 3 x 7 dni = 6,3 GB co oznacza że powinniśmy zabezpieczyć sobie z zapasem ok 10 GB w naszym pakiecie.
  • roaming i połączenia za granicą – podobnie jak w przypadku telefonów komórkowych, podczas pobytu za granicą czy gdy jesteśmy w obszarach przygranicznych, musimy liczyć się z tym że jeśli nasze urządzenie zarejestruje się w obcej, zagranicznej sieci GSM, wszelkie połączenia mogą wiązać się z dodatkowymi opłatami. To samo tyczy się dostępu do Internetu poprzez modem USB i router 3G. Jeśli chodzi o transmisję danych, opłaty roamingowe mogą być jeszcze wyższe. Tak więc w przypadku gdy istnieje możliwość że nasz modem USB podłączony do routera, spróbuje zarejestrować się w obcej sieci, dobrze jest zabezpieczyć się przed tym faktem poprzez odznaczając możliwość skorzystania z roamingu w konfiguracji routera albo próbując taką blokadę osiągnąć na poziomie naszego operatora komórkowego.

    Podkreślam jeszcze raz jak to ważny aspekt – przy wysokości opłat za transmisję danych w roamingu brak takiego zabezpieczenia może spowodować wzrost naszego rachunku o kilkaset PLN w ciągu krótkiego czasu!
  • zasięg – pomimo licznych zalet dostępu do Internetu poprzez sieć komórkową, ma on jedną wadę – nie wszędzie jest odpowiedni zasięg pozwalający na szybki dostęp albo na dostęp w ogóle. Ponieważ sam router 3G najczęściej nie ma żadnej sygnalizacji na obudowie, mówiącej o poziomie sygnału, dlatego też musimy się bardzo często opierać na informacjach płynących z modemu USB, który sygnalizuje nam ogólnie zasięg i fakt zestawienia połączenia za pomocą odpowiedniego koloru i sposobu świecenia się diody na modemie.
Pamiętajmy też że szybki zasięg 3G to domena przede wszystkim centrów miast, ewentualnie dużych skupisk wsi a w tzw. „głuszy” nie zawsze będzie można mówić o szybkim dostępie do Internetu, raczej możemy cieszyć się w ogóle dostępem do Internetu w trybie 2G. Wyjątkiem mogą być uczęszczane miejscowości turystyczne i narciarskie, np. Zieleniec na Dolnym Śląsku.

Innymi słowy – jeśli pojedziemy nad jezioro w głuszę to może się okazać że dostęp do Internetu będziemy mieli ale jego prędkość będzie zdecydowanie mniejsza niż jesteśmy przyzwyczajeni w mieście czy na stałym łączu.

2G czy 3G?


Tytuł już od razu sugeruje tematykę związaną z telefonami komórkowymi i smartfonami - tym razem coś o telefonii komórkowej.

Nie chodzi tu o kolejne udowodnienie przewagi sieci 3G/4G nad 2G. Piszę ten artykuł patrząc z pozycji miasta Wrocławia, gdzie w większości lokalizacji nie ma większego problemu z zasięgiem sieci 3G, spora część miasta pokryta jest już zasięgiem sieci LTE a także większość osób ma już telefony, które potrafią skorzystać z sieci 3G.

Sieć 3G to rzecz jasna wyższa jakość rozmów, szybsze korzystanie z Internetu, rozmowy wideo (tak, u nas też to działa bez problemu u niektórych operatorów) i w ogóle same zalety. Nie potrzeba właściwie tego uzasadniać.

Jednak czy to oznacza że w miejscach gdzie mamy sieć 3G, powinniśmy zapomnieć o korzystaniu z 2G?

Do końca nie zapomnimy oczywiście bo nasz telefon, smartfon czy tablet i tak się sam przełączy w tryb 2G gdy trafimy w obszar słabszego zasięgu.
Ale w jakich okolicznościach może nam się przydać celowe przełączenie w tryb 2G gdy bez problemu mamy do dyspozycji 3G?
  1. Oszczędzamy baterie - to chyba najważniejsza sprawa.
    Sam z własnych doświadczeń zauważyłem, że mój Samsung Galaxy S Plus znacznie rzadziej wymaga ładowania jeśli pracuje w trybie 2G.  Nawet w stanie czuwania zużywa mniej energii.
    Dodatkowo gdy chcemy na bieżąco być w sieci (czyli np. w telefonach z Androidem mieć włączony tryb transmisji danych), 2G staje się świetnym rozwiązaniem - ponieważ jak wcześniej wspomniałem, transmisja 2G zużywa mniej energii niż transmisja 3G a przy aktywnym połączeniu sieciowym widać to bardzo wyraźnie.
  2. Na przykładzie Wrocławia widać że są miejsca gdzie zasięg 3G co prawda jest ale jest na granicy efektywnej rozmowy czy transmisji - czyli “na jedną kreskę”. Podobna sytuacja jest pewnie w innych miastach.
    Wskutek tego zdarza się że co chwilę w rozmowie mamy ciszę a nawet zerwania połączenia. Analogicznie jest w transmisji danych - niby połączenie jest ale nie do końca działa cały czas. Urządzenie po prostu oscyluje pomiędzy trybem 2G a 3G - raz zasięg 3G jest niewystarczający i przełącza się w 2G lecz za chwilę 3G wzrasta odrobinę, lecz to wystarczy
    Jeśli przełączymy nasze urządzenie w tryb 2G, ta uciążliwość na granicy 3G znika. Rozmowy są nienajgorszej jakości a połączenia internetowe działają stabilnie, choć dużo wolniej - zgodnie z prędkością 2G czyli ok. 250 kbps maksymalnie. Po prostu nasze urządzenie, widząc dostępną sieć 3G, trzyma się wytycznych aby jednak z niej nie korzystać, więc korzysta ze stabilnego poziomu 2G i nie próbuje tego zmieniać.
    Korzystając z Internetu w smartfonie prędkość z reguły wcale nie jest na pierwszym miejscu - bardziej liczy się to że w miarę przemieszczania się, nie tracimy łączności.  Rzecz jasna jeśli nastawiamy się na pobranie dużej ilości danych albo obejrzenie filmu na YouTube to użycie prędkości 2G na pewno nie jest najlepszym pomysłem.
  3. Kolejną duża zaletą łączności 2G jest że najwyraźniej w praktyce ma ona większy zasięg w porównaniu z 3G i mam wrażenie, że jest bardziej odporna na przeszkody czy miejsca, w których zasięg 3G jest mniej stabilny lub za słaby. Świetnie się sprawdza więc w garażach podziemnych, lokalach w piwnicy czy metalowych halach.
  4. Kwestia limitu danych w abonamencie czy prepaidzie może dla niektórych z Was być również istotna.
    Korzystając z Internetu w trybie 2G transmisja nie następuje tak szybko jak w przypadku 3G więc nasz limit danych zmniejsza się wolniej niż gdyby to miało miejsce w przypadku 3G. W efekcie jest to bardziej kontrolowalny dla nas proces - nie zostajemy zaskoczeni faktem że nagle coś nam “zjadło” 150 MB z pakietu w ciągu kilku minut. Jeśli jakaś aplikacja zaczyna pobierać dane w sposób dla nas zaskakujący, mamy więcej czasu na reakcję.
  5. To samo zjawisko przydaje się za granicą gdzie jeśli już koniecznie musimy skorzystać z transmisji danych w roamingu, chcemy rzecz jasna zużyć jak najmniej danych a tryb 2G pozwala dużo lepiej to kontrolować.
Jak widać, korzyści ze świadomego korzystania z zasięgu 2G jest sporo choć nie można oczywiście powiedzieć że ma to zastosowanie w każdej sytuacji.