Zbiory danych w badaniach internetowych są pozyskiwane w sposób niekontrolowany, a respondenci tworzą próbę niekontrolowaną. Do danych z takich prób nie mają zastosowania metody badań reprezentacyjnych (np. przy braku operatu losowania nie są znane prawdopodobieństwa włączenia do próby respondentów z badanej populacji). Jednakże przy pewnych założeniach o populacji jest możliwe określenie losowej liczebności próby internetowej i procesu pozyskiwania danych jako eksperymentu losowego (abstrakt oryginalny)
Internetowe serwisy aukcyjne wykorzystują mechanizm licytacji stanowiący połączenie koncepcji kilku odmiennych sposobów prowadzenia aukcji. Niektóre cechy tego mechanizmu zostały ustalone w sposób arbitralny tak, by uprościć oprogramowanie serwisu, jednak wydają się sprzeczne z przeznaczeniem systemu, jakim jest wyłanianie jako zwycięzcy takiego uczestnika licytacji, który proponuje najwyższą cenę. Aby zbadać eksperymentalnie wpływ cech mechanizmu licytacji na jego trafność, skonstruowano komputerowy model serwisu aukcyjnego, a następnie wykonano na nim serię symulacji dla różnych konfiguracji wartości parametrów modelu. Uzyskane rezultaty wskazują, że powszechnie stosowany mechanizm licytacji ma wady związane z brakiem naturalnych zależności czasowych, które utrudniają trafne wyłonienie zwycięzcy oraz mogą prowadzić do zaniżenia osiąganej ceny sprzedaży.(abstrakt oryginalny)
W pracy przedstawiono model uogólnionego mechanizmu licytacyjnego, wzorowany na kilku odmiennych typach licytacji stosowanych między innymi na aukcji angielskiej, aukcji Vickreya oraz w rozpowszechnionych internetowych serwisach aukcyjnych. Celem konstruowania modelu było uzyskanie możliwości prowadzenia symulacji komputerowych systemów aukcyjnych o cechach zmieniających się w sposób ciągły pomiędzy skrajnymi wariantami. Z tego względu najpierw przeprowadzono wybór zasadniczych cech różniących modelowane mechanizmy, a następnie uogólniono je, dokonując parametryzacji. Stworzony model może odzwierciedlać zarówno dobrze ugruntowane systemy aukcyjne jak i różnorodne ich hybrydy, pozwalając na badanie ich własności metodami symulacji komputerowych.(abstrakt oryginalny)
4
Dostęp do pełnego tekstu na zewnętrznej witrynie WWW
Celem artykułu jest uogólniona analiza silnych i słabych stron oraz szans i zagrożeń (ang. Strengths, Weaknesses, Opportunities, Threats - SWOT) internetu jako źródła informacji na temat zdrowia i chorób. Jest to temat aktualny nie tylko z naukowego, ale także społeczno-zdrowotnego punktu widzenia. Analiza SWOT została przeprowadzona w oparciu o analizę wybranych publikacji naukowych, w których opisano wyniki badań (głownie wśród polskich pacjentów) na temat roli internetu jako źródła informacji o zdrowiu i chorobach oraz doświadczenia autora w projektowaniu, wykonywaniu i użytkowaniu narzędzi internetowych. Realizacja przyjętego celu wymagała, oprócz analizy piśmiennictwa, wykorzystania metod komparatywnych oraz wnioskowania logicznego. (fragment tekstu)
Czterema podstawowymi metodami badania oglądalności witryn internetowych są kwestionariuszowe badania użytkowników Internetu, analiza logów (plików rejestrów dostępu), audyt oglądalności za pomocą systemów trackingowych oraz panel użytkowników sieci Internet. Każda z tych metod ma swoją specyfikę, możliwości pomiaru (np. zestaw dostępnych wskaźników charakteryzujących zachowania użytkowników) i ograniczenia (reprezentatywność, różna szczegółowość pomiaru). (fragment tekstu)
W warunkach współczesnej gospodarki rynkowej informacja stała się jednym z najcenniejszych zasobów przedsiębiorstw. Podejmowanie decyzji zarządczych powinno opierać się nie tylko na intuicji i doświadczeniu decydentów, lecz także na stałym dostępie do prawdziwych, profesjonalnie zgromadzonych i przetworzonych informacji. (...) Jednym z najpopularniejszych źródeł informacji stał się obecnie Internet. (...) Przetwarzanie zebranych danych pozwala na wyciągnięcie interesujących informacji i na ich podstawie zbudowanie wiedzy o zachowaniach konsumentów elektronicznych. W tym celu wykorzystuje się metody matematyczno-statystyczne, stosowane również w tradycyjnej eksploracji danych (Data Mining), takiej jak algorytmy klasyfikacji i asocjacji. (fragment tekstu)
At the beginning of the 20th century, there was an active debate about random selection of units versus purposive selection of groups of units for survey samples. Neyman's (1934) paper tilted the balance strongly towards varieties of probability sampling combined with design-based inference, and most national statistical offices have adopted this method for their major surveys. However, nonprobability sampling has remained in widespread use in many areas of application, and over time there have been challenges to the Neyman paradigm. In recent years, the balance has tilted towards greater use of nonprobability sampling for several reasons, including: the growing imperfections and costs in applying probability sample designs; the emergence of the internet and other sources for obtaining survey data from very large samples at low cost and at high speed; and the current ability to apply advanced methods for calibrating nonprobability samples to conform to external population controls. This paper presents an overview of the history of the use of probability and nonprobability sampling from the birth of survey sampling at the time of A. N. Kiar (1895) to the present day. (original abstract)
Trzydziesta zasada internetu mówi, że w internecie nie ma kobiet. Ta prześmiewcza reguła powstała w USA w czasie, gdy często kobiety na serwisach randkowych okazywały się być ... mężczyznami. (fragment tekstu)
9
Dostęp do pełnego tekstu na zewnętrznej witrynie WWW
Artykuł podejmuje kwestię badań internetowych. Autorka dokonuje zasadniczego odróżnienia badań prowadzonych poprzez Internet (on-line) od badań Internetu jako specyficznego medium. Przedstawia podstawowe problemy metodologiczne związane z prowadzeniem badań przez Internet wraz ze wskazaniem najważniejszych typów tych badań. Prezentuje zarówno sposoby zachęty internautów do uczestnictwa w badaniu prowadzonym drogą on- line, jak i elementy ochrony praw osoby badanej poprzez Internet. (abstrakt oryginalny)
10
Dostęp do pełnego tekstu na zewnętrznej witrynie WWW
Konferencja "Społeczne aspekty Internetu", która odbyła się 8-10 grudnia 2006 r. w Warszawie, została zorganizowana przez Instytut Dziennikarstwa UW, Instytut Społecznej Psychologii Informatyki i Komunikacji SWPS, Instytut Studiów Społecznych UW i Wydział Psychologii UW. Była to jedna z najważniejszych w ostatnich latach imprez naukowych poświęconych problematyce społecznych badań Internetu. Pierwsza konferencja "Społeczne aspekty Internetu", która odbyła się rok wcześniej, okazała się dużym sukcesem ze względu na wysoki poziom merytoryczny oraz oryginalną tematykę zaprezentowanych referatów. W połowie 2006 r. nakładem wydawnictwa WAiP ukazał się zbiór najlepszych tekstów konferencyjnych zatytułowany Re: Internet. Społeczne aspekty medium. Konferencja ta potwierdziła, że Internet jako temat badań cieszy się coraz większą popularnością wśród osób zajmujących się naukami społecznymi, zwłaszcza wśród młodej kadry naukowej oraz studentów. Dlatego też organizatorzy konferencji zdecydowali się tym razem na przyjęcie znacznie większej liczby referatów niż w poprzednim roku; zaproponowano również specjalną sesję posterową poświęconą pracom studenckim. Program konferencji przewidywał 45 wystąpień oraz 24 postery ( w tym 8 posterów studenckich). Konferencja miała charakter interdyscyplinarny, co znajdowało odzwierciedlenie w niezwykłej różnorodności tematów poruszanych przez referentów (choć zdecydowanie dominowały perspektywy badawcze socjologiczna i psychologiczna). (fragment tekstu)
The algorithm for dynamic weighing presented in this paper is a method used in research studies based on samples when due to the large number of weighting parameters it is not possible to establish a fixed set of sample weights without nonacceptable dispersion of weights.(original abstract)
Rozwijający się e-handel wymaga wyjaśnienia kto, co, jak, kiedy, ile i dlaczego kupuje przez Internet, jak kształtuje się wielkość i struktura rynku, jakie są problemy i perspektywy. W artykule prezentowane są różnorodne badania i raporty z zakresu e-commerce będące podstawą podnoszenia poziomu wiedzy z zakresu e-commerce i lepszego funkcjonowania podmiotów na rynku.(abstrakt oryginalny)
Na podstawie przeprowadzonych badań stwierdzono, że większość polskich stron internetowych o treściach ekonomicznych, z wyjątkiem stron rządowych, wizytówek specjalistycznych firm konsultingowych i doradczych jednostek badawczych, nie jest przydatna jako źródło danych do prognozowania w przedsiębiorstwie. Wśród wortali, portali, serwisów, folderów, wizytówek, hubów branżowych i sklepów internetowych przedsiębiorcy powinni koncentrować się na wortalach i portalach w celu pozyskania danych. Jednak w tej grupie jedynie nieliczne polskie portale ze swoimi serwisami i wortale zamieszczają dane retrospektywne i prospektywne, które można wykorzystać w prognozowaniu w przedsiębiorstwie. Przy czym jakość danych, a przez to możliwość ich wykorzystania w prognozowaniu jest zdecydowanie wyższa w wypadku wortali. (fragment tekstu)
W artykule scharakteryzowano potencjał kapitału projektów społecznościowych w internecie oraz narzędzi, które dają pełną kontrolę procesu badawczego i analizy gromadzonych informacji. Przedstawiono jeden z projektów firmy Interactive Research Center Sp. z o.o., polegający na wskazaniu liderów opinii i animatorów społecznej dyskusji w przestrzeni portali społecznościowych. W badaniu wykorzystano dane semantyczne, dane o sieciach społecznych użytkowników i sieciach różnorodnych mikrospołeczności w ramach portalu.
15
Dostęp do pełnego tekstu na zewnętrznej witrynie WWW
Jakość strony internetowej ma istotny wpływ na postrzeganie przez użytkowników serwisu instytucji, do której dana strona należy. Wobec tego istotną kwestią jest ocena jakości serwisów internetowych oraz wybór kryteriów tej oceny. W pracy zaproponowano metodę selekcji istotnych kryteriów oceny jakości serwisów internetowych, opartą na indywidualnym wskaźniku pojemności informacyjnej Hellwiga. (abstrakt oryginalny)
Sklep internetowy może stracić klienta na wiele sposobów, jednak najbardziej bolesne wydaje się porzucenie koszyka - sytuacja, gdy klient jest już wstępnie zdecydowany na zakup, ale jednak ostatecznie nie realizuje go i wychodzi z serwisu. Z tego względu procesowi zakupowemu w e-commerce eksperci przyglądają się szczególnie skrupulatnie. (fragment tekstu)
Normy etyczne ustalone dla badań jakościowych w naukach społecznych w przypadku ich realizacji w internecie zderzają się z kilkoma zasadniczych kwestiami wymagającymi przemyślenia. Wynikają one z efektu nożyc, jaki bierze się z różnic między tempem rozwoju technologii (w tym przypadku internetu) a tempem rozwoju procedur badawczych. Wśród głównych wyzwań dla norm etycznych, z którymi musi się zmagać badacz, można wymienić problem wzajemnego oddziaływania badacza i internautów, a także problem domniemanej anonimowości w internecie. (abstrakt oryginalny)
18
Dostęp do pełnego tekstu na zewnętrznej witrynie WWW
Klauzule KNU często są stosowane na rynkach zależnych od platform internetowych, gdzie sprzedawca jest obowiązany oferować swój towar na najlepszych warunkach. Z perspektywy prawa konkurencji klauzule te rodzą kontrowersje. W przeszłości sądy uznawały takie klauzule za restrykcyjne porozumienia wertykalne skutkujące nadużyciem pozycji dominującej na rynku właściwym. Na podstawie takich wyroków niniejszy artykuł bada wpływ ekonomiczny tych klauzul na konkurencję oraz ich dopuszczalność.(abstrakt oryginalny)
19
Dostęp do pełnego tekstu na zewnętrznej witrynie WWW
W artykule zaprezentowano rozwój Internetu jako nowoczesnego medium komunikacyjnego. Jego odpowiednie wykorzystanie może być szansą dla przedsiębiorstwa. Omówiona została istota Internetu wraz z jego charakterystyką. Przedstawiono zarówno historyczne początki, jak również stan obecny. Opisano również krótko możliwości, jakie niesie za sobą wykorzystanie Internetu w przedsiębiorstwie. Ich szczegółowe omówienie znajdzie się w kolejnych artykułach. (abstrakt oryginalny)
W artykule przedstawiono metodologię oraz wyniki badania poziomu internetowej aktywności informacyjnej podmiotów prowadzących działalność gospodarczą w Internecie. Zaprezentowano model internetowej aktywności informacyjnej (pozyskiwania i przekazywania informacji) w biznesie internetowym. Do zagadnień wchodzących w skład modelu zakwalifikowano: źródła informacji w Internecie, narzędzia i usługi internetowe służące do realizacji procesów przekazywania i pozyskiwania informacji, metody pozyskiwania i przekazywania informacji, techniki pozyskiwania i przekazywania informacji związane z witryną WWW oraz wewnętrzne zasoby informacji. Zdefiniowany obszar internetowej aktywności informacyjnej pozwolił na określenie oraz uporządkowanie zmiennych wpływających na pozyskiwanie i przekazywanie informacji, które mają podlegać pomiarowi. Obliczono syntetyczne mierniki internetowej aktywności informacyjnej dla 185 podmiotów. (abstrakt oryginalny)
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.