Skip to main content

Search

Items tagged with: KI


 
Neues aus Brüssel:
Hier gibt unser #PIRATEN-MdEP @echo_pbreyer eine kleine Vorschau auf das, was er diese Woche als Europaabgeordneter machen wird.
youtube.com/watch?v=bA_F8h…
#TERREG #VDS in Dänemark,#KI

 
"#KI ist fundamental konservativ. Sie hasst Veränderung," sagt @doctorow. "Wenn Du 'Hey Schatz' textest, schlägt Dir Autocomplete beim nächsten 'Hey' wieder 'Schatz' vor - selbst, wenn Du gerade Schluss machen willst." http://blog.lareviewofbooks.org/provocations/neophobic-conservative-ai-overlords-want-everything-stay/

 

.oO( Hey, i'm fscking software .... do i need to care? ..... Dying is not such a bad thing .. as long as you come out better than you were... ;))


From Diaspora by Greg Egan

#diaspora #ki #ai #software #scifi #hardscifi #randomshit ;)

 

.oO( Hey, i'm fscking software .... do i need to care? ..... Dying is not such a bad thing .. as long as you come out better than you were... ;))


From Diaspora by Greg Egan

#diaspora #ki #ai #software #scifi #hardscifi #randomshit ;)

 
Der Deep Learning Hype.
"Ein neues #KI-Modell zu trainieren, verbraucht so viel Energie wie 5 Autos in ihrer gesamten Lebenszeit vom Bau bis zur Verschrottung." #36C3
https://media.ccc.de/v/36c3-11006-der_deep_learning_hype

 

Schachtürke und Industrieroboter | HNF Blog

Seit 2004 zeigt das HNF einen Nachbau des Schachtürken. Der lebensgroße Automat war auch Namensgeber des Schachtürken-Cups; der nächste findet vom 27. bis 30. Dezember statt. Vor vierzig Jahren, im Februar 1979, schauten die Freunde des königlichen Spiels nach Hamburg. Der schottische Meister David Levy kämpfte im Fernsehstudio gegen einen Roboter, den ein Schachprogramm steuerte.
Faszinierend was damals im ÖR noch alles möglich war.

#shach #chess #KI #Roboter #HNF
Schachtürke und Industrieroboter

 
Da stellt sich doch die Frage, wie sie meine Passwörter so schnell rausgefunden haben. Da muss KI im Spiel sein! #KI #Passworte #2019


 
Vom 8. - 9.11.2019 war der @zuendfunk-Netzkongress.
5 Leute wurden zum Thema "10 Tipps zum Demokratie Updaten" interviewt.
Hier die Kurzfassung.
Mit dabei ab 4.50 @ArnoldSchiller von den #PIRATEN.
br.de/mediathek/vide…
#Digitalisierung #KI #Algorithms

 

das Wissenschaftsdilemma


Netzpolitik.org berichtet über die Warnung von AI-Forschern vor den Folgen des Einsatzes von KI in unterschiedlichem sozialen Kontext.
Unter anderem kritisieren sie verschiedene Einsatzszenarien, "da aktuelle Studien darauf hindeuten, dass sie nicht oder nur sehr unzuverlässig funktioniert."

Leider geht es bei solcher Kritik zu KI-Forschung viel zu häufig um technische Machbarkeit und Verlässlichkeit von Ergebnissen. Auch ein Teil der von Ihnen vorgeschlagenen 12 Empfehlungen zum Umgang mit KI zielt in diese Richtung und ist sinngemäß überschrieben mit "Umgang in den kommenden Jahren".

Meines Erachtens müsste die Diskussion davon Handeln, was wir gesellschaftlich wollen und in welche Richtung die Forschung daher gelenkt werden sollte. Denn wir bekommen immer nur Antworten auf diejenigen Fragen, die wir stellen.

#KI #Forschung #Gesellschaft #Dilemma

 
Der Artikel stellt ein paar ziemlich interessante Fragen:

Wo beginnen Algorithmen und staatliche Vorgaben paternalistisch zu werden? Ist es schon ein Problem, wenn wir die Möglichkeit verlieren, auch mal zu schnell zu fahren? Ist es wirklich ratsam, uns komplett einem technischen System zu "unterwerfen"? Wie sicher ist sicher genug? Und natürlich spielt auch die Frage eine Rolle, ob rollende Computer nicht zu ganz neuen Formen der Überwachung führen können.

https://1e9.community/t/die-ethik-der-roboterautos-wer-autonome-fahrzeuge-will-muss-eigene-autonomie-abgeben/2598

#KI
#KI

 
Mal richtig gruseln? Sophia, eine Roboterdame mit künstlicher Intelligenz und Sprachsynthese-Modulen unterhält sich mit Bundeskanzlerin Angela Merkel und ada-Gründerin Miriam Meckel über das Thema Digitalisierung. Yikes... :-o
https://youtu.be/ZPXW3ZUnhic
#digitalisierung #robotik #AI #KI #KuenstlicheIntelligenz #ada #sophia

YouTube: Morals & Machines 2018 – Angela Merkel trifft auf Roboter Sophia (ada - Heute das Morgen verstehen.)


 
Mal richtig gruseln? Sophia, eine Roboterdame mit künstlicher Intelligenz und Sprachsynthese-Modulen unterhält sich mit Bundeskanzlerin Angela Merkel und ada-Gründerin Miriam Meckel über das Thema Digitalisierung. Yikes... :-o
https://youtu.be/ZPXW3ZUnhic
#digitalisierung #robotik #AI #KI #KuenstlicheIntelligenz #ada #sophia

YouTube: Morals & Machines 2018 – Angela Merkel trifft auf Roboter Sophia (ada - Heute das Morgen verstehen.)


 
"Warum #Europa gegenüber dem #SiliconValley und #China den Anschluss verliert." erklärt hier @AlexKohler1 von den #PIRATEN in einem 'polemischen Gastbeitrag'.
piratenpartei.de/2019/10/11/war…
#Palantir #Paypal #Google #KI
Warum Europa gegenüber dem Silicon Valley und China den Anschluss verliert

 

#KI 2019: "Züge die aufeinander zurasen" – Warnungen vor KI fürs Militär


Militärische #KI-Anwendungen dürften die dramatischsten Auswirkungen haben, werden aber eher selten erörtert. In Kassel haben sich Forscher damit beschäftigt.

 

ImageNetRoulette zeigt, wie rassistisch Computer programmiert sind

#Schwarze sind Bettler, #Weiße Geschäftsmänner: Jeder kann auf dieser Website testen, welche #Vorurteile in eine #KI einprogrammiert werden.




[...] #ImageNetRoulette macht transparent, was passiert, wenn eine #KI versucht, Bilder zu erkennen und sie zu verschlagworten – mit haarsträubenden Ergebnissen. Auf der Website kann jeder selbst Bilder hochladen oder Fotos aus dem Netz testen. Auch Webcam-Selfies funktionieren. [...]

[...] Wer mit ImageNetRoulette arbeitet, stellt schnell fest, dass Bilder von dunkelhäutigen Menschen auffallend oft abwertende Bezeichnungen verpasst bekommen – "Kranker, Leidender" ist da noch freundlich.

Wie kommt's? Für ihr #Projekt haben Crawford und Paglan Klickarbeiter und -arbeiterinnen über den Amazon-Dienst #MechanicalTurk angeheuert, die den Bildern aus dem ImageNet Eigenschaften aus der Wortliste zuweisen sollten – monotone Aufgaben, für die die Freelancer in Centbeträgen bezahlt werden. Ein mehr oder weniger zufälliger Pool an #Menschen hat also der KI für ImageNetRoulette beigebracht, rassistisch zu denken. [...]
https://www.vice.com/de/article/qvg3dx/imagenetroulette-zeigt-wie-rassistisch-computer-programmiert-sind

#Kunst #Forschung #Wissenschaft #Gesellschaft #KünstlicheIntelligenz #NeuronaleNetze #Rassismus #Sexismus #Ableism #Colorism #Colourism #Bilderkennung #Überwachung #Sicherheitstechnik

 
#PIRATEN-Rundschau 15.08.2019
Den Beschluss des niedersächsischen Landtags, 'Chancen der #KI in #Niedersachsen auszubauen, Anwendungen in Zukunftsbranchen zu fördern' kommentieren die @PiratenNDS so:
"Entschließung zur KI-Entwicklung ist Augenwischerei!"
Entschließung zur KI-Entwicklung ist Augenwischerei

 
Beim #KI-Workshop fordert eine Vertreterin von @WikimediaDE@twitter.com Zugang von Öffentlichkeit und Zivilgesellschaft zu den Räumen, wo über Verwendung von KI entschieden wird. Sie erwähnt dabei auch auch die mangelnde Öffentlichkeit der #EnqueteKI #EKKI.
#igfd2019

 
"Wir wissen, das #KI eine sehr problematische Öko-Bilanz hat und deswegen müssen wir darüber nachdenken, was gefördert wird, was wir brauchen und wie KI Teil des sozial-ökologischen Umbaus sein kann."
@flobut@twitter.com beim #igfd2019

 
Ein #Gedankenexperiment. Vielleicht noch nicht ausgereift, aber ein #Gedanke der mich nur schwer wieder los lässt :)

Stell dir vor:
Wenn du eine einzige #Frage an eine allwissende #KI stellen dürftest, die ausschließlich mit

"Ja"
"Nein"
"Frage basiert auf einer falschen Annahme."
"Fragestellung nicht korrekt."
"Diese Information ist der #Menschheit (noch) nicht bekannt, es fehlen Daten diesbezüglich."

beantwortet werden würde, wie würde deine Frage lauten?

Prämissen:
  • Die KI hätte Zugriff auf alles menschliche Wissen / Fakten / Glauben / Gedanke. Sie wäre also nach menschlichem Ermessen mit ausnahmslos allen von der Menschheit jemals verfügbar gemachten Informationen ausgestattet, unabhängig von Sprache, Glauben, Idiologien oder sonstigen Einschränkungen menschlicher Informationswahrnehmung.
  • Jeder Mensch dürfte jeweils eine einzige Frage stellen.
  • Die Antwort wäre in jedem Fall korrekt. Ob es einem gefällt oder nicht und unabhängig von "falschen Informationen" die durch die Menschheit in die Daten gebracht wurden.

Ich habe jetzt schon eine Weile darüber nachgedacht und muss zugeben, mir fällt nichts ein das mir persönlich oder Menschheit weiterhelfen würde.

 
Bild/Foto
Bild/Foto

Bild/Foto

#dwr #foto #fotografieren #mywork #Ziege #Tiere #Natur #Bildungsauftrag #Algorithmus #KI

#Ziegenblog

#Link zum Ziegenblog


So, ich habe mal angefangen einiges über #Ziegen zusammenzutragen. #Infos, #Richtigstellungen und so weiter. Vieles wird euch bekannt vorkommen, da ich es hier auch schon gebracht habe.

Wer #Fotos dieser faszinierenden #Tiere zur #Verfügung stellen möchte, dann gerne über diesen #Kanal. Am besten direkt die Lizenz angeben und in welcher Art die Namensnennung erfolgen soll :-)

 
Bild/Foto
Bild/Foto

Bild/Foto

#dwr #foto #fotografieren #mywork #Ziege #Tiere #Natur #Bildungsauftrag #Algorithmus #KI

#Ziegenblog

#Link zum Ziegenblog


So, ich habe mal angefangen einiges über #Ziegen zusammenzutragen. #Infos, #Richtigstellungen und so weiter. Vieles wird euch bekannt vorkommen, da ich es hier auch schon gebracht habe.

Wer #Fotos dieser faszinierenden #Tiere zur #Verfügung stellen möchte, dann gerne über diesen #Kanal. Am besten direkt die Lizenz angeben und in welcher Art die Namensnennung erfolgen soll :-)

 
Python Flappy Bird AI Tutorial (with NEAT)

Tim von #TechWithTim hat sich viel vorgenommen: Er will eine Künstliche Intelligenz (#KI) erschaffen, die Flappy Bird besser spielen soll, als jeder menschliche Spieler. Sie soll dazu den Neuro Evolution of Augmenting Topologies Algorithmus (kurz #NEAT) nutzen und folgerichtig muß neben #Pygame auch das Modul NEAT-Python installiert werden (geht mit pip install neat-python). http://blog.schockwellenreiter.de/2019/08/2019081603.html #Python #GameDev #AI

 
Bild/Foto
Bild/Foto

Bild/Foto

#dwr #foto #fotografieren #mywork #Ziege #KI #Ziegen

Die weltberühmte Warburger #Faltenziege


Ich habe die Idee einen Blog zu machen, den so genannten #Ziegenblog. Da werden nur "Ziegen" abgebildet oder erklärt was keine Ziegen sind. Ha, dann wollen wir doch mal sehen ob wir die KI nicht doch beeinflussen können.

Danke @Josef, du hast den #Stein ins Rollen gebracht.

Und wer wunderbare #Ziegenbilder besitzt und mir zur Verfügung stellen möchte, gerne über diesen Kanal hier :-)

 
Bild/Foto
Bild/Foto

Bild/Foto

#dwr #foto #fotografieren #mywork #Ziege #KI #Ziegen

Die weltberühmte Warburger #Faltenziege


Ich habe die Idee einen Blog zu machen, den so genannten #Ziegenblog. Da werden nur "Ziegen" abgebildet oder erklärt was keine Ziegen sind. Ha, dann wollen wir doch mal sehen ob wir die KI nicht doch beeinflussen können.

Danke @Josef, du hast den #Stein ins Rollen gebracht.

Und wer wunderbare #Ziegenbilder besitzt und mir zur Verfügung stellen möchte, gerne über diesen Kanal hier :-)

 

 

 
Die Entwicklung im Bereich #Software/#KI/#Wissenschaft schreitet rasant voran. Irgendwo habe ich mal gehört die Rate beträgt 70%. Wenn aber KI entwickelt wird, die selbst entwickelt, wird die Rate vermutlich exponentiell ansteigen. Ich denke das hält man nicht mehr auf, sondern man sollte sich anpassen, das Positive darin sehen. Vielleicht erlebe ich ja noch eine Superintelligenz und komme ich mir dann hoffentlich nicht zu dumm vor :). Eine spannende Zeit.

"Es gehört zu diesem unfassbaren Abenteuer, dass niemand das Tempo dieser Revolution abschätzen kann. Klar erscheint nur, dass sie uns überrollen wird. Seien wir also gewiss: Nichts bleibt beim Alten. Ob man das besser oder schlechter als die Gegenwart finden mag, muss jeder für sich selber entscheiden."

Deswegen immer die guten Gedanken, die möglichst logisch nachvollziehbar sein sollten, ins Netz.

https://www.rubikon.news/artikel/nichts-bleibt-wie-es-war

#zukunft #innovation

 
Bild/Foto
#public #english #deutsch #ai #artificial #intelligence #ki
I could improve my ai, after long trial and error. Better prediction of my body weight possible.

Ich konnte meine KI verbessern, nach langem Ausprobieren. Bessere Vorhersage meines Körpergewichts möglich.

 

Das Mega-Abenteuer Künstliche Intelligenz


#Gesellschaft #KI
Das Mega-Abenteuer Künstliche Intelligenz

 
Führt mehr Sicherheit zu totaler Überwachung?

Je nach Optimismuseinfärbung der eigenen Zukunftssicht gilt China als das Muster- oder das Horrorland einer digitalen Gesellschaft: Künstliche Intelligenz, mobile Dienstleistungen, vernetzte Mobilität.

Die Reportage beginnt in einer Berliner Polizeidienststelle, Die Prognose-Software berechnet früh morgens bereits das Einbruchsrisiko in den verschiedenen Bezirken für die nächsten drei Tage,

https://www.ardmediathek.de/ard/player/Y3JpZDovL2JyLmRlL3ZpZGVvLzYzNWFiOTMxLTUyODYtNDYzYS05OGU2LWUxOWMyZDgyMDYyOA/

#Datenschutz #KI

 
Bild/Foto
#public #english #deutsch #ai #artificial #intelligence #ki
I developed my first ai for my own purpose.
The ai found an approximation curve of my body weight.
Blue is my measured body weight and orange is the approximated curve.
It took 1/4 hour to calculate it with #tensorflow for #deep #machine #learning with my #artificial #neural #net.
This is quite similar with the mathematics of function approximation or non linear regression.

Ich habe meine erste KI für meinen eigenen Zweck entwickelt.
Das KI fand eine Näherungskurve meines Körpergewichts.
Blau ist mein gemessenes Körpergewicht und Orange ist die angenäherte Kurve.
Es dauerte 1/4 Stunde, um es mit #tensorflow für #deep #machine #learning with my #artificial #neural #net zu berechnen.
Dies ist ähnlich mit der Mathematik der Funktionsannäherung oder der nichtlinearen Regression.

Source Code:
<br /># coding: utf-8 

# In[607]: 


from __future__ import absolute_import, division, print_function, unicode_literals 

import os 
import matplotlib.pyplot as plt 

import tensorflow as tf 
import numpy 
from sklearn.metrics import r2_score 
get_ipython().magic('matplotlib inline') 

tf.enable_eager_execution() 
&#35;tf.disable_eager_execution() 

print("TensorFlow version: {}".format(tf.__version__)) 
print("Eager execution: {}".format(tf.executing_eagerly())) 


# In[608]: 


&#35;train_dataset_url = "file:///home/alex/workspace-noneclipse/tensorflow/deep_learning_cookbook/data/gewicht2.csv" 
# 
&#35;train_dataset_fp = tf.keras.utils.get_file(fname=os.path.basename(train_dataset_url), 
#                                           origin=train_dataset_url) 
# 
&#35;print("Local copy of the dataset file: {}".format(train_dataset_fp)) 
# 


# In[609]: 


## column order in CSV file 
&#35;column_names = ['Zeitstempel','Gewicht'] 
# 
&#35;feature_names = column_names[0] 
&#35;label_name = column_names[1] 
# 
&#35;print("Features: {}".format(feature_names)) 
&#35;print("Label: {}".format(label_name)) 
&#35;print(str(train_dataset_fp)) 
# 


# In[610]: 


&#35;TrainingSet = numpy.genfromtxt("/home/alex/workspace-noneclipse/tensorflow/alx/data/weath1weight2.csv", delimiter=";", skip_header=True) 
TrainingSet = numpy.genfromtxt("/home/alex/workspace-noneclipse/tensorflow/alx/data/gewicht2.csv", delimiter=",", skip_header=True) 
&#35;ValidationSet = numpy.genfromtxt("/home/alex/workspace-noneclipse/tensorflow/alx/data/validation.csv", delimiter=",", skip_header=True) 


# In[611]: 


X1 = TrainingSet[:,0:1] 
Y1 = TrainingSet[:,1] 
# 
&#35;X2 = ValidationSet[:,0:1] 
&#35;Y2 = ValidationSet[:,1] 
X1 


# In[612]: 


# 
&#35;xa = X1[0][0] 
&#35;xb = X1[0][1] 
&#35;X3 = [] 
&#35;X3a = [] 
&#35;X3b = [9] 
&#35;for x in X1: 
#    X3.append([x[0]-xa]+[x[1]-xb]) 
&#35;X1 = X3 
# 
Y1 


# In[613]: 


&#35;ya = min(Y1) 
&#35;y3 =[] 
&#35;for y in Y1: 
#    y3.append(y-ya) 
&#35;Y1 = y3 
&#35;len(Y1) 


# In[614]: 


&#35;batch_size = 40 
# 
&#35;train_dataset = tf.contrib.data.make_csv_dataset( 
#    train_dataset_fp, 
#    batch_size, 
#    column_names=column_names, 
#    label_name=label_name, 
#    num_epochs=1) 
# 


# In[615]: 


&#35;features, labels = next(iter(train_dataset)) 
# 
&#35;features 


# In[616]: 


&#35;labels 


# In[617]: 


&#35;def pack_features_vector(features, labels): 
#  """Pack the features into a single array.""" 
#  features = tf.stack(list(features.values()), axis=1) 
#  return features, labels 
# 
&#35;train_dataset = train_dataset.map(pack_features_vector) 
# 
&#35;features, labels = next(iter(train_dataset)) 
&#35;print(features[:5]) 
# 
# 


# In[618]: 


&#35;print(labels[:5]) 


# In[619]: 


&#35;model = tf.keras.Sequential([ 
#  tf.keras.layers.Dense(40, activation=tf.nn.relu, input_shape=(1,1)),  # input shape required 
#  tf.keras.layers.Dense(40, activation=tf.nn.sigmoid), 
#  &#35;tf.keras.layers.Dense(20, activation=tf.nn.softmax), 
#  tf.keras.layers.Dense(1, activation=tf.keras.activations.linear) 
&#35;]) 
&#35;model = tf.keras.Sequential([ 
#  tf.keras.layers.Dense(40, activation=tf.nn.relu, input_shape=(1,1)),  # input shape required 
#  tf.keras.layers.Dense(40, activation=tf.nn.sigmoid), 
#  tf.keras.layers.Dense(40, activation=tf.nn.sigmoid), 
#  tf.keras.layers.Dense(40, activation=tf.nn.sigmoid), 
#  tf.keras.layers.Dense(40, activation=tf.nn.sigmoid), 
#  &#35;tf.keras.layers.Dense(20, activation=tf.nn.softmax), 
#  tf.keras.layers.Dense(1, activation=tf.keras.activations.linear) 
&#35;]) 
model = tf.keras.Sequential([ 
  tf.keras.layers.Dense(len(X1[0]), input_shape=(len(X1[0]),), kernel_initializer="uniform"), 
  tf.keras.layers.BatchNormalization(axis=-1, trainable=True), 
  tf.keras.layers.Dense(10000, activation=tf.nn.tanh, kernel_initializer="uniform"), 
  tf.keras.layers.Dense(10000, activation=tf.nn.tanh, kernel_initializer="uniform"), 
  &#35;tf.keras.layers.Dense(20, activation=tf.nn.softmax), 
  tf.keras.layers.Dense(1, activation=tf.keras.activations.linear, kernel_initializer="uniform")  
]) 

# 
# 
&#35;predictions = model(features) 
&#35;predictions 


# In[ ]: 





# In[620]: 


&#35;tf.nn.softmax(predictions[:5]) 
&#35;features 


# In[621]: 


&#35;print("Prediction: {}".format(tf.argmax(predictions, axis=1))) 
&#35;print("    Labels: {}".format(labels)) 


# In[622]: 



# Compile model 
model.compile(loss='mse', optimizer='adam', metrics=['accuracy']) 

# Fit the model 
model.fit(X1, Y1, epochs=30, batch_size=5,  verbose=2) 


# In[623]: 


&#35;def loss(model, x, y): 
#  y_ = model(x) 
#  &#35;print(str(x)) 
#  &#35;print(str(y)) 
#  &#35;print(str(y_)) 
#  return tf.reduce_mean(tf.squared_difference(y,y_[0])) 
#  &#35;return tf.reduce_sum(tf.square(y,name='error'),y_[0]) 
# 
#&#35;sparse_softmax_cross_entropy(labels=y, logits=y_) 
# 
# 
&#35;l = loss(model, features, labels) 
&#35;print("Loss test: {}".format(l)) 
# 


# In[624]: 


&#35;def grad(model, inputs, targets): 
#  with tf.GradientTape() as tape: 
#    loss_value = loss(model, inputs, targets) 
#  return loss_value, tape.gradient(loss_value, model.trainable_variables) 
# 


# In[625]: 


&#35;optimizer = tf.train.GradientDescentOptimizer(learning_rate=0.005) 
# 
&#35;global_step = tf.Variable(0) 
# 


# In[626]: 




&#35;loss_value, grads = grad(model, features, labels) 

&#35;print("Step: {}, Initial Loss: {}".format(global_step.numpy(), 
#                                          loss_value.numpy())) 

&#35;optimizer.apply_gradients(zip(grads, model.trainable_variables), global_step) 

&#35;print("Step: {},         Loss: {}".format(global_step.numpy(), 
 #                                         loss(model, features, labels).numpy())) 


# In[627]: 


### Note: Rerunning this cell uses the same model variables 
# 
&#35;from tensorflow import contrib 
&#35;tfe = contrib.eager 
# 
## keep results for plotting 
&#35;train_loss_results = [] 
&#35;train_accuracy_results = [] 
# 
&#35;num_epochs = 5 
&#35;for epoch in range(num_epochs): 
#  epoch_loss_avg = tfe.metrics.Mean() 
#  epoch_accuracy = tfe.metrics.Accuracy() 
# 
#  # Training loop - using batches of 32 
#  for x, y in train_dataset: 
#    # Optimize the model 
#    loss_value, grads = grad(model, x, y) 
#    optimizer.apply_gradients(zip(grads, model.trainable_variables), 
#                              global_step) 
# 
#    # Track progress 
#    epoch_loss_avg(loss_value)  # add current batch loss 
#    # compare predicted label to actual label 
#    epoch_accuracy(model(x)[0], y[0]) 
#  # end epoch 
#  train_loss_results.append(epoch_loss_avg.result()) 
#  train_accuracy_results.append(epoch_accuracy.result()) 
# 
#  if epoch % 1 == 0: 
#    print("Epoch {:03d}: Loss: {:.3f}, Accuracy: {:.3%}".format(epoch, 
#                                                                epoch_loss_avg.result(), 
#                                                                epoch_accuracy.result())) 
#    &#35;print("Epoch {:03d}: Loss: {:.8f}".format(epoch,epoch_loss_avg.result())) 
# 


# In[628]: 


#&#35;import numpy as np 
#&#35;features=np.matrix([[1553774948, 1350809400, 1397637660, 1556192428, 1446639060,1556440621, 1328555460, 1477636620]]) 
#&#35;1574981355 
#&#35;features = tf.Variable([[1572981355]], dtype=tf.float32) 
&#35;features2 = tf.Variable([[1561810342]], dtype=tf.float32) 
&#35;predictions = model(features2) 
&#35;predictions = predictions.numpy().tolist() 
&#35;predictions# 


# In[ ]: 





# In[629]: 



# Calculate predictions 
PredTestSet = model.predict(X1) 
PredValSet = model.predict(X1) 


# In[630]: 



# Save predictions 
numpy.savetxt("/home/alex/workspace-noneclipse/tensorflow/alx/data/trainresults.csv", PredTestSet, delimiter=",") 
numpy.savetxt("/home/alex/workspace-noneclipse/tensorflow/alx/data/valresults.csv", PredValSet, delimiter=",") 


# In[631]: 


&#35;features.numpy().tolist() 


# In[632]: 



&#35;Plot actual vs predition for training set 
TestResults = numpy.genfromtxt("/home/alex/workspace-noneclipse/tensorflow/alx/data/trainresults.csv", delimiter=",") 
plt.plot(Y1,TestResults,'ro') 
plt.title('Training Set') 
plt.xlabel('Actual') 
plt.ylabel('Predicted') 

&#35;Compute R-Square value for training set 
TestR2Value = r2_score(Y1,TestResults) 
print("Training Set R-Square=", TestR2Value) 


# In[633]: 


# 
#&#35;Plot actual vs predition for validation set 
&#35;ValResults = numpy.genfromtxt("/home/alex/workspace-noneclipse/tensorflow/deep_learning_cookbook/data/valresults.csv", delimiter=",") 
&#35;plt.plot(Y2,ValResults,'ro') 
&#35;plt.title('Validation Set') 
&#35;plt.xlabel('Actual') 
&#35;plt.ylabel('Predicted') 
# 
#&#35;Compute R-Square value for validation set 
&#35;ValR2Value = r2_score(Y2,ValResults) 
&#35;print("Validation Set R-Square=",ValR2Value) 


# In[634]: 


# 
&#35;import matplotlib.pyplot as plt 
&#35;import datetime 
&#35;import numpy as np 
# 
## features['Zeitstempel'], labels.numpy() 
#&#35;gruene = labels.numpy()&#35;np.array([5.3, 8.0, 7.9, 9.5, 12.1, 7.7, 11.7, 24.2, 30.3]) 
&#35;origKg = labels.numpy()&#35;np.array([53.4, 51.9, 49.0, 39.6, 41.3, 44.8, 44.2, 39.0, 27.0]) 
# 
&#35;ts2=[] 
&#35;ts3=[] 
&#35;for ts in features.numpy().tolist(): 
#    ts2.append(datetime.datetime.fromtimestamp(int(ts[0]))) 
#    ts3.append(int(ts[0])) 
# 
&#35;predictions=[] 
&#35;for ts in ts3: 
#    features2 = tf.Variable([[ts]], dtype=tf.float32) 
#    prediction = model(features2)[0][0] 
#    predictions.append(prediction) 
#     
#&#35;predictions2 = [] 
#&#35;for prediction in predictions: 
##    predictions2.append(datetime.datetime.fromtimestamp(float(prediction))) 
# 
# 
# 
&#35;fig, ax = plt.subplots() 
#&#35;xlabels = features.numpy().tolist() 
# 
#&#35;plt.title("Regional Elections Baden-Wuerttemberg 1980-2016", size="x-large") 
#&#35;plt.ylabel("Votes in %", size="x-large") 
#&#35;plt.xlabel("Year", size="x-large") 
# 
## plot the data 
#&#35;print(str(features.numpy().tolist())) 
# 
#&#35;print(str(ts2)) 
#&#35;dates = matplotlib.dates.date2num(ts2) 
#&#35;print(str(predictions2)) 
&#35;plt.plot_date(ts2, origKg) 
&#35;plt.plot_date(ts2, predictions) 
#&#35;plt.plot(cdu, "r\*-", markersize=6, linewidth=1, color='black', label="CDU") 
#&#35;plt.plot(gruene, "r\*-", markersize=6, linewidth=1, color='g', label="Gruene") 
# 
## add legend 
#&#35;plt.legend(loc=(0.1, 0.3)) 
# 
## add x-labels 
#&#35;ax.set_xticks(range(len(xlabels))) 
#&#35;ax.set_xticklabels(xlabels, rotation='vertical') 
# 
&#35;plt.show() 


# In[635]: 


PredTestSet 


# In[636]: 



import matplotlib.pyplot as plt 
import datetime 
import numpy as np 

## features['Zeitstempel'], labels.numpy() 
#&#35;gruene = labels.numpy()&#35;np.array([5.3, 8.0, 7.9, 9.5, 12.1, 7.7, 11.7, 24.2, 30.3]) 
&#35;origKg = Y1 &#35;np.array([53.4, 51.9, 49.0, 39.6, 41.3, 44.8, 44.2, 39.0, 27.0]) 


ts2=[] 
ts3=[] 
predictions=[] 
origKg=[] 

for ts,y,pred in zip(X1,Y1,PredTestSet): 
    ts2.append(datetime.datetime.fromtimestamp(int(ts[0]))) 
    ts3.append(int(ts[0])) 
    predictions.append(pred[0]) 
    origKg.append(y) 

&#35;predictions=[] 
&#35;for ts in ts3: 
#    &#35;features2 = tf.Variable([[ts]], dtype=tf.float32) 
#    prediction = model(features2)[0][0] 
#    predictions.append(prediction) 

&#35;predictions2 = [] 
&#35;for prediction in predictions: 
#    predictions2.append(datetime.datetime.fromtimestamp(float(prediction))) 



fig, ax = plt.subplots() 
&#35;xlabels = features.numpy().tolist() 

&#35;plt.title("Regional Elections Baden-Wuerttemberg 1980-2016", size="x-large") 
&#35;plt.ylabel("Votes in %", size="x-large") 
&#35;plt.xlabel("Year", size="x-large") 

# plot the data 
&#35;print(str(features.numpy().tolist())) 

&#35;print(str(ts2)) 
&#35;dates = matplotlib.dates.date2num(ts2) 
&#35;print(str(predictions2)) 
plt.plot_date(ts2, origKg) 
plt.plot_date(ts2, predictions) 
&#35;plt.plot(cdu, "r\*-", markersize=6, linewidth=1, color='black', label="CDU") 
&#35;plt.plot(gruene, "r\*-", markersize=6, linewidth=1, color='g', label="Gruene") 

# add legend 
&#35;plt.legend(loc=(0.1, 0.3)) 

# add x-labels 
&#35;ax.set_xticks(range(len(xlabels))) 
&#35;ax.set_xticklabels(xlabels, rotation='vertical') 

plt.show()

 
Das Märchen, dass mehr Überwachungsdaten im KI-Wettrüsten helfen würden

In den USA ist in der Diskussion um die Weiterentwicklung von #KI zu hören, dass die USA uneinholbar hinter China zurückfallen könnten.

Die Erklärung lautet, dass Chinas Überwachungsstaat unablässig und uneingeschränkt massenhaft Daten sammeln könne und mit diesen Daten besser KI-Systeme trainieren und bauen könne.

https://www.schneier.com/blog/archives/2019/06/data_surveillan.html

#KI #Datenschutz

 
Arbeitnehmer optimieren ihre Arbeit selbsttätig mit Technik: Wem gehören die Produktivitätsgewinne?

Jeanne Meister fragt daher, wie wir mit Optimierungen des Arbeitsprozesses umgehen sollten, die von den Beschäftigten selbst umgesetzt worden sind. Wer profitiert finanziell von diesen Optimierungen

Wie kann das Unternehmen und die Beschäftigten profitieren, wenn Arbeitnehmer mit Hilfe externer KI Prozesse optimieren? Wie teilen wir die Produktivitätsgewinne auf?

https://www.forbes.com/sites/jeannemeister/2019/05/07/the-future-of-work-the-rise-of-workers-who-self-automate-their-jobs/#2fcc3f9d3c23

#KI

 
Bild/Foto

Kritik zur Bezeichnung "Künstliche Intelligenz"


... und warum wir diese Bezeichnung nicht nutzen sollten!

Von Beate Baum für Aktion Freiheit statt Angst

Es gibt einiges, was ich nicht nachvollziehen kann. Ja, ich kann es verstehen, aber ich kann es nicht nachvollziehen und wenn man es sich genau anschaut, ergibt es keinen Sinn, ist nicht logisch und voller Fehler! Schauen wir uns die Bezeichnung "künstliche Intelligenz" genau an und was sie denn tatsächlich bedeutet!

„Künstliche Intelligenz“ vs. „Natürliche Intelligenz“

Bei der Bezeichnung künstliche Intelligenz schwingt die Bezeichnung natürliche Intelligenz indirekt mit, ob man nun will oder nicht, denn der Begriff künstlich hat ein Gegenüber, nämlich das natürlich. Was ist denn eine natürliche Intelligenz? Das ist die menschliche Intelligenz und auch die der Tiere und Lebewesen, die sich aus selbst heraus reproduzieren und durch ganzheitliche Intelligenz mit allen anderen Lebewesen auf dem Planeten Erde verbunden sind. Somit sind also alle Lebewesen auf ihre spezifische Art und Weise natürlich intelligent und dadurch lebensfähig.

Was genau bedeutet denn künstliche Intelligenz? Nun gemeint sind genaugenommen alle von Menschen erfundenen Werkzeuge, die ab einer gewissen Komplexität selbst lernen könnten. Das bedeutet, dass sie vom Menschen programmierbar (vorgeben eines Programmablaufs) sind, gewisse grundliegenden Prozesse immer wieder durchzuführen, um neue Informationen einzuordnen. Dabei vollziehen sie vorgegebene Muster und können diese Muster vereinzelt erweitern. Da es sich hierbei um einen komplexen Vorgang handelt, und weil diejenigen, die sich mit dieser Wissenschaft beschäftigen, sich bei der Begriffswahl an gewisse „Lerntheorien“ orientieren, werden diese Werkzeuge als selbstlernend bezeichnet.

IT-ler und die fachfremden Begriffe Intelligenz und lernen

Wie kommt ein IT-ler dazu, den Lern-Begriff zu nutzen? Nein, es gibt in der IT keinerlei soziologische, psychologische oder Geisteswissenschaftliche Lerninhalte, die mit der tatsächlichen Bedeutung des Begriffs lernen oder des Begriffs Intelligenz zu tun haben. Aber jemand schnappte wohl etwas aus den Kognitionswissenschaften in den geisteswissenschaftlichen bzw. den lebenswissenschaftlichen Fachbereichen und nutzte es vollkommen sinnfremd innerhalb der Ingenieurswissenschaften für ein Werkzeug.

Faktisch sind diese Werkzeuge aber nicht selbstlernend, sondern programmiert worden. Dass zu jeden Lernprozess Emotionen dazugehören, ist hier nicht relevant gewesen bzw. wurde es einfach ignoriert. Und das Lernen und Lernprozesse beim Menschen (und bei Lebewesen) wesentlich komplexer sind als reine simple Informationsverarbeitung, das wollte man damals nicht wahrhaben. Im Gegenteil, man degradierte Emotionen und hinterging all die Wissenschaften, die sich ernsthaft mit Lernprozessen beschäftigen.

Die Komplexität der Fachbereiche

Hier treffen Welten aufeinander und Fachbereiche, die miteinander keine Begriffsdebatten führen, vertiefen die Klüfte der Definitionen und Weltsichten - Ingenieurswissenschaft, wohl kaum kompatibel mit Lebenswissenschaft und noch weniger kompatibel mit Geisteswissenschaft. Das ist ja nichts Neues, dass sich diese 3 Fachbereiche keinesfalls verstehen und gleiche Begriffe ganz unterschiedlich definieren. Aber warum ist diese Idee so tief im Mainstream angekommen?

Nun wir wissen, dass wenn wir Fördergelder wollen, wir möglichst große und wirksame, wichtige Errungenschaften zu bringen haben! Klar klingt dann diese künstliche Intelligenz als Bezeichnung für komplexe Werkzeuge oder digitale Maschinen wesentlich besser. Wording ist etwas, was zur IT gehört und zu Werbezwecken sehr vielseitig genutzt wird. Dass es sich hierbei um falsche Informationen und fehlerhafte Begriffsnutzung handelt, ist doch irrelevant: Zur Sicherung von Arbeitsplätze und Forschungsgelder greift man gern auf alternative Fakten zurück!

Die Konsequenzen der falschen Begriffsnutzung

Aber was ist das Ergebnis solcher fahrlässigen Begriffsnutzung? Werkzeuge gibt es viele: den Löffel, die Gabel und das Messer sind auch Werkzeuge. Wenn diese nun mechanisch und digital so programmiert werden können, dass sie selbst den Menschen füttern, dann würde man sie als Intelligente Werkzeuge bezeichnen, also künstlich Intelligent, auch wenn daran nichts Intelligentes ist, sondern nur einfache Prozessteuerung.

So wurden programmierte komplexe Werkzeuge (Maschinen und Roboter), die künstlich Intelligenten bezeichnet werden, durch den Begriff künstlich neben den natürlich-intelligenten Lebewesen gestellt und damit aufgewertet: Das Werkzeug steht nun neben dem Menschen.

In der Antike stand alles Lebendige, was aus sich heraus entstand und voller Geheimnisse niemals endgültig erklärt werden konnte, hierarchisch weit über dem, was der Mensch erschuf. Von Menschenhand geformtes war nicht ansatzweise mit naturgeformtem vergleichbar, und es wurde auch nicht nebeneinander gestellt. Doch im Zuge des Christentums (der Mensch als Abbild des Gottes und die Erde, die ihm untertan ist) und der darauf folgenden Evolutionistisch-geprägten Aufklärung (der Mensch als höchst entwickelte „Rasse“) bekam der Mensch weit über alle Lebewesen eine Art „Superstellung“. Im Verlauf der Industrialisierung rutschte das Werkzeug immer mehr in den Mittelpunkt. Durch Fachbereichsdifferenzierungen und der Komplexität der Wissenschaft und der Maschinen, bekam das Werkzeug eine eigene „Superrolle“.

KI als alternativen Fakt

Eines ist jedenfalls klar: Die Welt scheint sehr langweilig geworden zu sein, wenn wir uns den seltsamen Intelligenz-Begriff der IT-ler anschauen. Nichts an dem, was uns da die IT-ler bieten, ist tatsächlich spannend und interessant, wenn man sich nicht sowieso für komplexe Werkzeuge interessiert. Und nichts daran ist wirklich neu oder irgendwie beeindruckend! Reduktionismen und Vereinfachungen sollen nun dieses Fachwissen der Industrie-Welten für alle zugänglich machen. Genau betrachtet entpuppt sich das Ganze aber als eine langweilige Mogelpackung.

Aber wie kann man denn glauben, man könne die Milliarden Jahre der Erdenentwicklung, die damit verbundene Komplexität der Lebewesen und deren ganzheitliche Intelligenz und Angepasstheit einfach mit einer jahrzehntealten, mangelhaften und fehlerhaften IT-ler-Intelligenz-Theorie gleichstellen? Das werden wir noch weiter erforschen: Wo genau ist der Fehler und wie können wir diesem sog. „alternativen Fakt“ – die Existenz von künstlicher Intelligenz – begegnen?

Nun wir machen das so: Keinesfalls respektieren wir diese fehlerhafte Begriffsnutzung und bezeichnen alle KI als das, was sie tatsächlich sind: komplexe Werkzeuge. Es spielt dabei keine Rolle, wie sehr diese Werkzeuge aussehen wie Menschen, Bienen, Hunde oder wie Fahrkartenautomaten: es bleiben Werkzeuge und das muss jedem klar sein! Und Sie, liebe Leser, sollten es genauso tun und sich nicht hinters Licht führen lassen: Nur, weil Intelligenz draufsteht, muss noch lange keine Intelligenz drin sein!

Ihre Beate Baum

Mögliche andere Bedeutungen von KI:
Künstliche Ignoranz | Künstliche Illusion | Künstliche Ideale | Künstliche Isolation | Künstlicher Irrtum | Künstliche Irritation | Künstliche Irrealität | Kostenintensive Investition

https://www.aktion-freiheitstattangst.org/de/articles/6915-20190614-kritik-zur-bezeichnung-kuenstliche-intelligenz.htm

#AI #KI #künstlicheIntelligenz #neuronaleNetze #Algorithmus #natürlicheIntelligenz #Roboter #selbstlernend #Kritik #Begriffe #Natur #Technik #Gleichberechtigung #Ergonomie #Diskriminierung #Ungleichbehandlung #Datensicherheit #Abhängigkeit #Automat

 
Bild/Foto

Kritik zur Bezeichnung "Künstliche Intelligenz"


... und warum wir diese Bezeichnung nicht nutzen sollten!

Von Beate Baum für Aktion Freiheit statt Angst

Es gibt einiges, was ich nicht nachvollziehen kann. Ja, ich kann es verstehen, aber ich kann es nicht nachvollziehen und wenn man es sich genau anschaut, ergibt es keinen Sinn, ist nicht logisch und voller Fehler! Schauen wir uns die Bezeichnung "künstliche Intelligenz" genau an und was sie denn tatsächlich bedeutet!

„Künstliche Intelligenz“ vs. „Natürliche Intelligenz“

Bei der Bezeichnung künstliche Intelligenz schwingt die Bezeichnung natürliche Intelligenz indirekt mit, ob man nun will oder nicht, denn der Begriff künstlich hat ein Gegenüber, nämlich das natürlich. Was ist denn eine natürliche Intelligenz? Das ist die menschliche Intelligenz und auch die der Tiere und Lebewesen, die sich aus selbst heraus reproduzieren und durch ganzheitliche Intelligenz mit allen anderen Lebewesen auf dem Planeten Erde verbunden sind. Somit sind also alle Lebewesen auf ihre spezifische Art und Weise natürlich intelligent und dadurch lebensfähig.

Was genau bedeutet denn künstliche Intelligenz? Nun gemeint sind genaugenommen alle von Menschen erfundenen Werkzeuge, die ab einer gewissen Komplexität selbst lernen könnten. Das bedeutet, dass sie vom Menschen programmierbar (vorgeben eines Programmablaufs) sind, gewisse grundliegenden Prozesse immer wieder durchzuführen, um neue Informationen einzuordnen. Dabei vollziehen sie vorgegebene Muster und können diese Muster vereinzelt erweitern. Da es sich hierbei um einen komplexen Vorgang handelt, und weil diejenigen, die sich mit dieser Wissenschaft beschäftigen, sich bei der Begriffswahl an gewisse „Lerntheorien“ orientieren, werden diese Werkzeuge als selbstlernend bezeichnet.

IT-ler und die fachfremden Begriffe Intelligenz und lernen

Wie kommt ein IT-ler dazu, den Lern-Begriff zu nutzen? Nein, es gibt in der IT keinerlei soziologische, psychologische oder Geisteswissenschaftliche Lerninhalte, die mit der tatsächlichen Bedeutung des Begriffs lernen oder des Begriffs Intelligenz zu tun haben. Aber jemand schnappte wohl etwas aus den Kognitionswissenschaften in den geisteswissenschaftlichen bzw. den lebenswissenschaftlichen Fachbereichen und nutzte es vollkommen sinnfremd innerhalb der Ingenieurswissenschaften für ein Werkzeug.

Faktisch sind diese Werkzeuge aber nicht selbstlernend, sondern programmiert worden. Dass zu jeden Lernprozess Emotionen dazugehören, ist hier nicht relevant gewesen bzw. wurde es einfach ignoriert. Und das Lernen und Lernprozesse beim Menschen (und bei Lebewesen) wesentlich komplexer sind als reine simple Informationsverarbeitung, das wollte man damals nicht wahrhaben. Im Gegenteil, man degradierte Emotionen und hinterging all die Wissenschaften, die sich ernsthaft mit Lernprozessen beschäftigen.

Die Komplexität der Fachbereiche

Hier treffen Welten aufeinander und Fachbereiche, die miteinander keine Begriffsdebatten führen, vertiefen die Klüfte der Definitionen und Weltsichten - Ingenieurswissenschaft, wohl kaum kompatibel mit Lebenswissenschaft und noch weniger kompatibel mit Geisteswissenschaft. Das ist ja nichts Neues, dass sich diese 3 Fachbereiche keinesfalls verstehen und gleiche Begriffe ganz unterschiedlich definieren. Aber warum ist diese Idee so tief im Mainstream angekommen?

Nun wir wissen, dass wenn wir Fördergelder wollen, wir möglichst große und wirksame, wichtige Errungenschaften zu bringen haben! Klar klingt dann diese künstliche Intelligenz als Bezeichnung für komplexe Werkzeuge oder digitale Maschinen wesentlich besser. Wording ist etwas, was zur IT gehört und zu Werbezwecken sehr vielseitig genutzt wird. Dass es sich hierbei um falsche Informationen und fehlerhafte Begriffsnutzung handelt, ist doch irrelevant: Zur Sicherung von Arbeitsplätze und Forschungsgelder greift man gern auf alternative Fakten zurück!

Die Konsequenzen der falschen Begriffsnutzung

Aber was ist das Ergebnis solcher fahrlässigen Begriffsnutzung? Werkzeuge gibt es viele: den Löffel, die Gabel und das Messer sind auch Werkzeuge. Wenn diese nun mechanisch und digital so programmiert werden können, dass sie selbst den Menschen füttern, dann würde man sie als Intelligente Werkzeuge bezeichnen, also künstlich Intelligent, auch wenn daran nichts Intelligentes ist, sondern nur einfache Prozessteuerung.

So wurden programmierte komplexe Werkzeuge (Maschinen und Roboter), die künstlich Intelligenten bezeichnet werden, durch den Begriff künstlich neben den natürlich-intelligenten Lebewesen gestellt und damit aufgewertet: Das Werkzeug steht nun neben dem Menschen.

In der Antike stand alles Lebendige, was aus sich heraus entstand und voller Geheimnisse niemals endgültig erklärt werden konnte, hierarchisch weit über dem, was der Mensch erschuf. Von Menschenhand geformtes war nicht ansatzweise mit naturgeformtem vergleichbar, und es wurde auch nicht nebeneinander gestellt. Doch im Zuge des Christentums (der Mensch als Abbild des Gottes und die Erde, die ihm untertan ist) und der darauf folgenden Evolutionistisch-geprägten Aufklärung (der Mensch als höchst entwickelte „Rasse“) bekam der Mensch weit über alle Lebewesen eine Art „Superstellung“. Im Verlauf der Industrialisierung rutschte das Werkzeug immer mehr in den Mittelpunkt. Durch Fachbereichsdifferenzierungen und der Komplexität der Wissenschaft und der Maschinen, bekam das Werkzeug eine eigene „Superrolle“.

KI als alternativen Fakt

Eines ist jedenfalls klar: Die Welt scheint sehr langweilig geworden zu sein, wenn wir uns den seltsamen Intelligenz-Begriff der IT-ler anschauen. Nichts an dem, was uns da die IT-ler bieten, ist tatsächlich spannend und interessant, wenn man sich nicht sowieso für komplexe Werkzeuge interessiert. Und nichts daran ist wirklich neu oder irgendwie beeindruckend! Reduktionismen und Vereinfachungen sollen nun dieses Fachwissen der Industrie-Welten für alle zugänglich machen. Genau betrachtet entpuppt sich das Ganze aber als eine langweilige Mogelpackung.

Aber wie kann man denn glauben, man könne die Milliarden Jahre der Erdenentwicklung, die damit verbundene Komplexität der Lebewesen und deren ganzheitliche Intelligenz und Angepasstheit einfach mit einer jahrzehntealten, mangelhaften und fehlerhaften IT-ler-Intelligenz-Theorie gleichstellen? Das werden wir noch weiter erforschen: Wo genau ist der Fehler und wie können wir diesem sog. „alternativen Fakt“ – die Existenz von künstlicher Intelligenz – begegnen?

Nun wir machen das so: Keinesfalls respektieren wir diese fehlerhafte Begriffsnutzung und bezeichnen alle KI als das, was sie tatsächlich sind: komplexe Werkzeuge. Es spielt dabei keine Rolle, wie sehr diese Werkzeuge aussehen wie Menschen, Bienen, Hunde oder wie Fahrkartenautomaten: es bleiben Werkzeuge und das muss jedem klar sein! Und Sie, liebe Leser, sollten es genauso tun und sich nicht hinters Licht führen lassen: Nur, weil Intelligenz draufsteht, muss noch lange keine Intelligenz drin sein!

Ihre Beate Baum

Mögliche andere Bedeutungen von KI:
Künstliche Ignoranz | Künstliche Illusion | Künstliche Ideale | Künstliche Isolation | Künstlicher Irrtum | Künstliche Irritation | Künstliche Irrealität | Kostenintensive Investition

https://www.aktion-freiheitstattangst.org/de/articles/6915-20190614-kritik-zur-bezeichnung-kuenstliche-intelligenz.htm

#AI #KI #künstlicheIntelligenz #neuronaleNetze #Algorithmus #natürlicheIntelligenz #Roboter #selbstlernend #Kritik #Begriffe #Natur #Technik #Gleichberechtigung #Ergonomie #Diskriminierung #Ungleichbehandlung #Datensicherheit #Abhängigkeit #Automat

 

Mozilla entwickelt KI, die Penis-Zeichnungen erkennt | futurezone.at

Mit dem Projekt will man gegen die KI-Entwicklungen großer Konzerne wie Google und Facebook protestieren.
Sehr geil :-D
#KI #Penis
#KI #Penis

 
Künstliche Intelligenz #KI
"Der große Nachteil dieses Prozesses ist, dass damit Monopole auf Daten und Inhalte gefördert werden" (Sophie Searcy, Data Scientist)
https://www.heise.de/newsticker/meldung/Datenforscherin-Kuenstliche-Intelligenz-ist-kaputt-4447500.html
#KI

 
Bildbearbeitung: Neuronales Netzwerk erkennt Photoshop-Manipulationen #Photoshop #Bildbearbeitung #Innovation #KI #NeuronalesNetzwerk #Adobe #Foto #Applikationen #Wissenschaft

 
#KI und #ML sind doch irgendwie wie Kleinkinder. Es ist Wahnsinn, wie schnell sie lernen und wir freuen uns total, wenn sie etwas neues können. Aber so richtig weiter bringt es auch niemanden.
#KI #ML

 
#KI #Bias

RT @AbirGhattas@twitter.com

The researchers found that the object recognition algorithms made around 10% more errors when asked to identify items from a household with a $50 monthly income compared to those from a household making more than $3,500
https://www.theverge.com/2019/6/11/18661128/ai-object-recognition-algorithms-bias-worse-household-items-lower-income-countries

🐦🔗: https://twitter.com/AbirGhattas/status/1138709516554571776
#KI #Bias

 
.@renatangens@twitter.com bei den #BigBrotherAwards zu #Precire: Sprachanalyse und „künstliche Intelligenz“ zur Charakter-, Emotions- & Motivationserkennung verbieten! #KI @BMJV_Bund@twitter.com @UlrichKelber@twitter.com #LfDI #Datenschutz
https://bigbrotherawards.de/2019/kommunikation-precire-technologies-gmbh
Bild/Foto

 

Apples künstliche Intelligenz „Siri“ konvertiert zum Christentum!


https://theoleaks.de/2019/06/07/apples-kuenstliche-intelligenz-siri-konvertiert-zum-christentum/
#KI #Siri #TheoLeaks #Satire
Apples künstliche Intelligenz „Siri“ konvertiert zum Christentum!

 
Unsere #bjv19 ist sich einig: #Digitalisierung muss #sozial und #ökologisch sein. Dafür fordern wir mehr #OpenSource, ein Recht auf Reparatur, transparente #KI und einiges mehr. Unsere Position lest ihr hier: https://www.bundjugend.de/ueber-uns/dokumente-downloads-2/ #publicmoneypubliccode #glasfaser

 
Nachdem @svenwildermann@twitter.com auf der #deRSE19 gezeigt hatte, welche Durchbrüche #Microsoft in der #KI-Forschung erzielt habe, gab es eine Nachfrage zum Thema #Datenschutz. Kein Problem, sogar eine dt. #Krankenversicherung speichere ihre Daten in der MS-Cloud Azure, war seine Antwort:(
Bild/Foto

 
Genial:

"... Die NYT hat mittels Machine Learning und Umfragen daran gearbeitet, die Emotionen von Lesern von Artikeln vorherzusagen. Anzeigenkunden können nun aus 18 Gefühlen wählen. Konkret bedeutet das, dass etwa ein Anbieter von Retro-Spielzeug etwa Anzeigen in Artikeln schalten kann, die nostalgische Gefühle auslösen. Oder hingegen nicht in Artikeln aufzutauchen, die Angst auslösen, wie etwa Berichte über Anschläge oder Unwetter. ..."

https://meedia.de/2019/05/23/glueck-trauer-hoffnung-die-new-york-times-vermarktet-jetzt-leser-emotionen/

#Medien #KI #Werbung

 

Kognitive Revolution


"(...) Wir müssen KI zulassen, ob wir es wollen oder nicht, denn wir befinden uns auf der globalen Datenautobahn und rasen mit Lichtgeschwindigkeit mitten in eines der größten Abenteuer der Geschichte."

Link zum Beitrag von Wolf Reiser:
https://neue-debatte.com/2019/05/22/buchbesprechung-die-bit-revolution-von-gernot-brauer/
#KI #AI #Digitalisierung #KünstlicheIntelligenz #BIT #Revolution #GernotBrauer #Rezension #Technik #Automatisierung #Wissenschaft
Buchbesprechung: Die Bit-Revolution von Gernot Brauer