FREUNDE,ich bitte Euch flehentlich : “ Lasst Euch und Euren Kindern den VERSTAND nicht nehmen,die REALITÄT sieht bereits sehr schlimm aus….!!
Einfach FRAGEN,das ist existentiell !!
Leben in der digitalen Welt….wollen wir das überhaupt oder wird es uns smart aufs Auge gedrückt…?? BABS-I-Komplexsystem „ET“
Wollen wir uns wahrhaft “ VER-SMARTEN/VER-BLÖDEN “ lassen von diesen pervertierten BRAIN-VERNICHTERN….?? BABS-I-Komplexsystem „ET“ Veröffentlicht am 23/05/2016 Digitalisierung der Schule: „Zum selbständigen Denken unfähig“ 3. Februar 2016 aikos2309 https://techseite.wordpress.com/2016/02/03/digitalisierungsmartisierunghaarpisierung-wie-wir-erwachsene-unsere-kinder-sorglos-den-pervertierten-satanisten-ueberlassen-das-ist-unterlassene-hilfeleistung-und-missbrauch-schutzbefohle/ https://techseite.wordpress.com/?s=Kinder+Schule+Digitale+Demenz&submit=Suchen Gesellschaft: Die systematische Vernichtung der Jugend im Westen – … Weiterlesen
https://techseite.wordpress.com/?s=S

Direkte Fragestellungen zum BABS-I-Komplexsystem, persönliche Beratungen und Informationen „ET“
mailto:etech-48@gmx.de
http://www.google.com/patents/DE202010012057U1?cl=de&hl=de
ANTIGRAVITATION
ist die einzige und wirklich reale Hilfe,um sich gegen das geplante und vollziehende
UNHEIL der GEISTESMANIPULATION zu schützen…NIEMAND ausser „ET“ besitzt dieses WISSEN aber nur für EUCH & EURE/UNSERE KINDER,
garantiert nicht für die sich als AUSERWÄHLTE dünkend….!!! „ET“
_______________________________________________________
Gesellschaft
Intelligente Sprachprogramme: Automatisierte Vorurteile
In den letzten Jahren haben Sprachprogramme große Fortschritte gemacht. Die steigende Präzision ist bei vielen Übersetzungs- und Chatprogrammen zu beobachten.
Das liegt auch an einer steigenden Vielfalt an Informationen. Die Menge an verfügbaren Textdateien im Internet hat deutlich zugenommen. Diese Datensätze werden von den Programmen algorithmisch verarbeitet und interpretiert. Durch die Interpretation der Inhalte entstehen Sinnzusammenhänge. So versuchen Software-Entwickler die Sprachprogramme näher an menschliche Sprachfähigkeiten heranzuführen.
Die meisten Algorithmen verwerten die Daten mithilfe sogenannter Worteinbettungen. Über eine Suchfunktion können sie Schlüsse ziehen, in welchen Zusammenhängen einzelne Wörter benutzt werden. Diese Ordnungen und Kategorisierungen bilden sie mit mathematischen Werten ab. Sie entdecken außerdem Ähnlichkeiten, beispielsweise zwischen weiblichen und männlichen Termen. So können Künstliche Intelligenzen die Worte „Lehrer“ und „Lehrerin“ einander zuordnen. Sie erkennen dabei, dass die Begriffe ähnlich sind und miteinander zusammenhängen, wie „Mann“ und „Frau“.
Ein Forscherteam aus Informatikern um Aylin Caliskan und Joanna J. Bryson hat die auf die Weise erworbenen Fähigkeiten von solchen Programmen untersucht. Das Ergebnis: unangenehme Seiteneffekte. Die Maschinen absorbieren unter anderem ungefiltert tief verwurzelte Vorurteile.
Für die Studie vollzogen die Wissenschaftler einen Assoziationstest mit den Programmen. Der Test kommt ursprünglich aus der Sozialpsychologie. Versuchspersonen sollen dafür verschiedene Begriffe paaren, die für sie ähnlich erscheinen oder miteinander zusammenhängen.
Wie bei vielen Menschen beobachteten die Forscher auch bei den Programmen dieselben Stereotypen und Vorurteile. Die Algorithmen interpretieren beispielsweise Vornamen, die unter Afro-Amerikanern üblich sind, als unangenehm. Gängige Vornamen von Weißen bewerten sie dagegen eher als angenehm. Die Programme teilten außerdem weiblichen Namen künstlerische Berufe zu. Männliche assoziierten sie eher mit Mathematik.
Auch Microsoft steuerte im Frühjahr 2016 einem PR-Debakel entgegen: Der Softwarehersteller hatte einen Chat-Bot für Twitter programmiert. Für den Bot wurde ein eigener Account erstellt. Er startete als ein neugieriges, jugendliches Mädchen namens „Tay“.
Microsoft hatte den Bot entwickelt, um zu testen, wie Künstliche Intelligenz im Alltag lernen kann. Tay konnte mit Nutzern der Internet-Plattform kommunizieren. Über die von den Nutzern verfassten Nachrichten sollte der Bot seinen Wortschatz erweitern und von ihnen lernen.
Schon nach wenigen Stunden änderten sich Tays anfänglich harmlose Aussagen radikal.
„Ich hasse Feministen. Sie sollten alle sterben und in der Hölle verbrennen“, äußerte der Bot plötzlich in einem seiner Tweets.
Nach 24 Stunden wurde der Account wieder gesperrt. Microsoft entschied damals, das soziale und kulturelle Experiment zu unterbrechen und zuerst einige Nachbesserungen an Tay vorzunehmen.
„Viele Leute behaupten jetzt, Künstliche Intelligenzen seien mit Stereotypen belastet. Ich denke eher, dass uns die Ergebnisse unsere eigenen Vorurteile vor Augen bringen.“, so die Informatikerin Bryson.
Künstliche Intelligenzen (KI) mit diskriminierenden Einstellungen stellen dennoch eine große Gefahr dar. Denn KI sollen in Zukunft vermehrt eingesetzt werden, um alltägliche Aufgaben zu erledigen oder über Sprachanalysen zu entscheiden, wer zu einem Bewerbungsgespräch eingeladen wird – und wer nicht.
WACHT auf und SCHÜTZT EUCH !!
SCHÜTZT EUCH vor derartigem UNGEIST,das wird erst noch bitterer !!
SCHÜTZT EUCH !!
Für die,die mit gesundem VERSTAND diese kommende Zeit überleben wollen, sollte das
BABS-I-Komplexsystem
zur PFLICHT gehören !!
LG, der Schöpfung verpflichtet, “ET”
mailto:etech-48@gmx.de








Du muss angemeldet sein, um einen Kommentar zu veröffentlichen.