DE112015004280T5 - Projizierte interaktive virtuelle Arbeitsoberfläche - Google Patents

Projizierte interaktive virtuelle Arbeitsoberfläche Download PDF

Info

Publication number
DE112015004280T5
DE112015004280T5 DE112015004280.6T DE112015004280T DE112015004280T5 DE 112015004280 T5 DE112015004280 T5 DE 112015004280T5 DE 112015004280 T DE112015004280 T DE 112015004280T DE 112015004280 T5 DE112015004280 T5 DE 112015004280T5
Authority
DE
Germany
Prior art keywords
projected
unit
image
interactive virtual
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112015004280.6T
Other languages
English (en)
Inventor
Frederick Brunn Jonathan
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of DE112015004280T5 publication Critical patent/DE112015004280T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1639Details related to the display arrangement, including those related to the mounting of the display in the housing the display being based on projection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/325Power saving in peripheral device
    • G06F1/3265Power saving in display device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B2210/00Aspects not specifically covered by any group under G01B, e.g. of wheel alignment, caliper-like sensors
    • G01B2210/10Wheel alignment
    • G01B2210/28Beam projector and related sensors, camera, inclinometer or other active sensing or projecting device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1645Details related to the display arrangement, including those related to the mounting of the display in the housing the display being suitable to be used in combination with an external overhead projector
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/02Simulators for teaching or training purposes for teaching control of vehicles or other craft
    • G09B9/08Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of aircraft, e.g. Link trainer
    • G09B9/30Simulation of view from aircraft
    • G09B9/307Simulation of view from aircraft by helmet-mounted projector or display
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/002Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Projection Apparatus (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Ein Verfahren zum Erstellen einer uneingeschränkten projizierten interaktiven virtuellen Arbeitsoberfläche, wobei die uneingeschränkte projizierte interaktive virtuelle Arbeitsoberfläche ein anpassbares Bild eines projizierten Teils eines Bereichs aufweist, der mindestens einer Arbeitsoberfläche einer Datenverarbeitungseinheit zugehörig ist. Das Verfahren kann ein Integrieren eines Projektors und eines Bewegungssensors in eine Einheit enthalten. Das Verfahren kann auch ein Erfassen von mindestens einer Position, einer Positionsänderung, einer Richtungsänderung oder einer Ausrichtungsänderung enthalten, die der Einheit zugehörig sind. Das Verfahren kann ein Berechnen eines projizierten Bilds enthalten. Das Verfahren kann auch ein Koordinieren des berechneten projizierten Bilds über mindestens eine Anwendung enthalten, die auf der Einheit ausgeführt wird. Das Verfahren kann ferner ein Projizieren einer Ansicht von einem Teil eines Bereichs enthalten, der dem koordinierten projizierten Bild zugehörig ist, wobei die projizierte Ansicht eine interaktive virtuelle Arbeitsoberfläche aufweist. Das Verfahren kann außerdem ein Anpassen der projizierten Ansicht auf Grundlage eines Kriteriums enthalten.

Description

  • HINTERGRUND DER ERFINDUNG
  • Die vorliegende Erfindung betrifft allgemein das Gebiet von Computern und insbesondere von Projektoren.
  • Ein Projektor oder Bildprojektor ist eine optische Einheit, die ein Bild (oder Bewegtbilder) auf eine Oberfläche projiziert wie beispielsweise einen Projektionsschirm. Derzeit sind Projektoren als Handheld-Projektor erhältlich (auch bekannt als Taschenprojektor, mobiler Projektor, Pico-Projektar oder Mini-Beamer). Ein Handheld-Projektor kann sogar in Smartphones eingebettet sein. Ein Handheld-Projektor ist eine Technologie, mit der die Verwendung eines Bildprojektors in einer Handheld-Einheit angewendet wird, wie beispielsweise Mobiltelefone, Personal Digital Assistants (PDAs) und Digitalkameras.
  • KURZDARSTELLUNG DER ERFINDUNG
  • Gemäß einer Ausführungsform wird ein Verfahren zum Erstellen einer uneingeschränkten projizierten interaktiven virtuellen Arbeitsoberfläche bereitgestellt, wobei die uneingeschränkte projizierte interaktive virtuelle Arbeitsoberfläche ein anpassbares Bild eines projizierten Teils eines Bereichs aufweist, der mindestens einer Arbeitsoberfläche einer Datenverarbeitungseinheit zugehörig ist. Das Verfahren kann ein Integrieren eines Projektors und eines Bewegungssensors in eine Einheit enthalten. Das Verfahren kann auch ein Erfassen von mindestens einer Position, einer Positionsänderung, einer Richtungsänderung oder einer Ausrichtungsänderung enthalten, die der Einheit von dem integrierten Bewegungssensor aus zugehörig sind. Das Verfahren kann ein Berechnen eines projizierten Bilds auf Grundlage der erfassten Position, der erfassten Rechtungsänderung oder der erfassten Ausrichtungsänderung der Einheit relativ zu einer projizierten Oberfläche enthalten. Das Verfahren kann ferner ein Koordinieren des berechneten projizierten Bilds über mindestens eine Anwendung, die in der Einheit ausgeführt wird, auf Grundlage der erfassten Position und einer Ausrichtung des Projektors enthalten, wobei das projizierte Bild der Projektionsfläche zugehörig ist. Das Verfahren kann auch ein Projizieren einer Ansicht von einem Teil eines Bereichs enthalten, der dem koordinierten projizierten Bild zugehörig ist, wobei die projizierte Ansicht eine interaktive virtuelle Arbeitsoberfläche mit einer Mehrzahl von Elementen aufweist, die Anwendungsbilder aufweisen. Das Verfahren kann ferner ein Anpassen der projizierten Ansicht des Teils des Bereichs auf Grundlage eines Kriteriums enthalten.
  • Gemäß einer weiteren Ausführungsform wird ein Computersystem zum Erstellen einer uneingeschränkten projizierten interaktiven virtuellen Arbeitsoberfläche bereitgestellt, wobei die uneingeschränkte projizierte interaktive virtuelle Arbeitsoberfläche ein anpassbares Bild eines projizierten Teils eines Bereichs aufweist, der mindestens einer Arbeitsoberfläche einer Datenverarbeitungseinheit zugehörig ist. Das Computersystem kann einen oder mehrere Prozessoren, einen oder mehrere computerlesbare Arbeitsspeicher, eine oder mehrere computerlesbare konkrete Speichereinheiten und Programmanweisungen enthalten, die auf mindestens einer der einen oder der mehreren Speichereinheiten zur Ausführung durch mindestens einen des einen oder der mehreren Prozessoren über mindestens einen des einen oder der mehreren Arbeitsspeicher gespeichert sind, wobei das Computersystem fähig ist, ein Verfahren auszuführen. Das Verfahren kann ein Integrieren eines Projektors und eines Bewegungssensors in eine Einheit enthalten. Das Verfahren kann auch ein Erfassen von mindestens einer Position, einer Positionsänderung, einer Richtungsänderung oder einer Ausrichtungsänderung enthalten, die der Einheit von dem integrierten Bewegungssensor aus zugehörig sind. Das Verfahren kann ein Berechnen eines projizierten Bilds auf Grundlage der erfassten Position, der erfassten Richtungsänderung oder der erfassten Ausrichtungsänderung der Einheit relativ zu einer projizierten Oberfläche enthalten. Das Verfahren kann ferner ein Koordinieren des berechneten projizierten Bilds über mindestens eine Anwendung, die in der Einheit ausgeführt wird, auf Grundlage der erfassten Position und einer Ausrichtung des Projektors enthalten, wobei das projizierte Bild der Projektionsfläche zugehörig ist. Das Verfahren kann auch ein Projizieren einer Ansicht von einem Teil eines Bereichs enthalten, der dem koordinierten projizierten Bild zugehörig ist, wobei die projizierte Ansicht eine interaktive virtuelle Arbeitsoberfläche mit einer Mehrzahl von Elementen aufweist, die Anwendungsbilder aufweisen. Das Verfahren kann ferner ein Anpassen der projizierten Ansicht des Teils des Bereichs auf Grundlage eines Kriteriums enthalten.
  • Gemäß einer weiteren Ausführungsform wird ein Computerprogrammprodukt zum Erstellen einer uneingeschränkten projizierten interaktiven virtuellen Arbeitsoberfläche bereitgestellt, wobei die uneingeschränkte projizierte interaktive virtuelle Arbeitsoberfläche ein anpassbares Bild eines projizierten Teils eines Bereichs aufweist, der mindestens einer Arbeitsoberfläche einer Datenverarbeitungseinheit zugehörig ist. Das Computerprogrammprodukt kann eine oder mehrere computerlesbare konkrete Speichereinheiten und Programmanweisungen enthalten, die auf mindestens einer der einen oder der mehreren konkreten Speichereinheiten gespeichert sind, wobei die Programmanweisungen durch einen Prozessor ausführbar sind.
  • Das Computerprogrammprodukt kann auch Programmanweisungen zum Integrieren eines Projektors und eines Bewegungssensors in eine Einheit enthalten. Das Computerprogrammprodukt kann auch Programmanweisungen zum Erfassen von mindestens einer von einer Position, einer Positionsänderung, einer Richtungsänderung oder einer Ausrichtungsänderung enthalten, die der Einheit von dem integrierten Bewegungssensor aus zugehörig sind. Das Computerprogrammprodukt kann Programmanweisungen zum Berechnen eines projizierten Bilds auf Grundlage der erfassten Position, der erfassten Richtungsänderung oder der erfassten Ausrichtungsänderung der Einheit relativ zu einer projizierten Oberfläche enthalten. Das Computerprogrammprodukt kann ferner Programmanweisungen zum Koordinieren des berechneten projizierten Bilds über mindestens eine Anwendung, die in der Einheit ausgeführt wird, auf Grundlage der erfassten Position und einer Ausrichtung des Projektors enthalten, wobei das projizierte Bild der Projektionsoberfläche zugehörig ist. Das Computerprogrammprodukt kann auch Programmanweisungen zum Projizieren einer Ansicht von einem Teil eines Bereichs enthalten, der dem koordinierten projizierten Bild zugehörig ist, wobei die projizierte Ansicht eine interaktive virtuelle Arbeitsoberfläche mit einer Mehrzahl von Elementen aufweist, die Anwendungsbilder aufweisen. Das Computerprogrammprodukt kann des Weiteren Programmanweisungen zum Anpassen der projizierten Ansicht des Teils des Bereichs auf Grundlage eines Kriteriums enthalten.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • Im Folgenden werden Ausführungsformen der Erfindung allein zu Beispielzwecken unter Bezugnahme auf die begleitenden Zeichnungen beschrieben, wobei:
  • 1 eine vernetzte Computerumgebung gemäß einer Ausführungsform veranschaulicht;
  • 2 ein Arbeitsablaufplan ist, der die Schritte veranschaulicht, die durch ein Programm zum Projizieren einer uneingeschränkten projizierten interaktiven virtuellen Arbeitsoberfläche gemäß mindestens einer Ausführungsform ausgeführt werden;
  • 3 eine beispielhafte Veranschaulichung des projizierten Arbeitsoberflächenbilds gemäß mindestens einer Ausführungsform ist;
  • 4 eine beispielhafte Veranschaulichung einer Bewegung der Einheit ist, die das projizierte Arbeitsoberflächenbild gemäß mindestens einer Ausführungsform anpasst;
  • 5 eine beispielhafte Veranschaulichung einer Koordinierung von mehreren Einheiten ist, die mit verschiedenen Unterabschnitten des projizierten Arbeitsoberflächenbilds gemäß mindestens einer Ausführungsform interagieren; und
  • 6 ein Blockschaubild von internen und externen Komponenten von in 1 dargestellten Computern und Servern gemäß mindestens einer Ausführungsform ist.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Hierin werden ausführliche Ausführungsformen der beanspruchten Strukturen und Verfahren offenbart; es sollte jedoch klar sein, dass die offenbarten Ausführungsformen nur veranschaulichend für die beanspruchten Strukturen und Verfahren sind, die in verschiedenen Formen verkörpert sein können. Diese Erfindung kann jedoch in vielen verschiedenen Formen verkörpert werden und sollte nicht als auf die hierin dargelegten beispielhaften Ausführungsformen eingeschränkt ausgelegt werden. Diese beispielhaften Ausführungsformen werden vielmehr bereitgestellt, damit diese Offenbarung genau und umfassend ist und dem Fachmann den Schutzumfang dieser Erfindung vollständig vermittelt. In der Beschreibung können Details von wohlbekannten Merkmalen und Techniken weggelassen sein, um eine unnötige Verschleierung der dargestellten Ausführungsformen zu vermeiden.
  • Ausführungsformen der vorliegenden Erfindung betreffen allgemein das Gebiet von Computern und insbesondere von Projektoren. Die im Folgenden beschriebenen beispielhaften Ausführungsformen stellen ein System, ein Verfahren und ein Programmprodukt bereit, um unter anderem eine uneingeschränkte projizierte interaktive virtuelle Arbeitsoberfläche bereitzustellen. Des Weiteren hat die vorliegende Ausführungsform die Fähigkeit, das technische Gebiet der Bildverarbeitung zu verbessern, indem die Projektion von Arbeitsoberflächenbildern einer uneingeschränkten Oberfläche einer Arbeitsoberfläche auf eine Oberfläche ermöglicht wird. Ferner hat die vorliegende Ausführungsform das Potenzial, Ressourcen einzusparen. Daher wird Batterieleistung durch die kombinierte Anpassung von Gesamtbeleuchtung und Objektiveinstellung eingespart, was zu einer Aufrechterhaltung der Helligkeit zu Lasten der Projektionsgröße führt.
  • Wie vorher beschrieben, sind Projektoren jetzt als Handheld- oder Pico-Projektoren erhältlich und können sogar in Smartphones eingebettet sein, die eine ausreichende Speicherkapazität zum Bewältigen von Präsentationsmaterial, aber nur wenig Platz für eine Unterbringung eines verbundenen Anzeigebildschirms haben. Handheld-Projektoren umfassen miniaturisierte Hardware und Software, die digitale Bilder auf jede in der Nähe befindliche Anzeigeoberfläche projizieren kann. Derartige Handheld-Projektoren ermöglichen jedoch keine grolle Benutzeroberfläche, sondern stellen vielmehr eine Spiegelung des Bildschirms in eine projizierte Oberfläche bereit. Des Weiteren können die derzeitigen Handheld-Projektoren unter einem hohen Energieverbrauch leiden und daher ein häufiges Wiederaufladen der Batterie erforderlich machen.
  • Ferner besteht ein allgemeines Problem hinsichtlich der Verwendung eines Projektors oder eines Standardbildschirms. Benutzer von derartigen Einheiten mühen sich mit Multitasking, Kopier- oder Einfügefunktionen oder anderen Interaktionen ab, die möglicherweise anwendungsübergreifend koordiniert werden müssen. Zum Beispiel kann eine komplexe Organisation wie ein Archivieren einer großen Anzahl von Dokumenten schwierig sein und vom Benutzer verlangen, dass er zwischen vielen Dialogfeldern und Auswahllisten auf einem kleinen Bildschirm navigieren muss. Daher kann es unter anderem von Vorteil sein, ein Verfahren zum Projizieren eines Bilds umzusetzen, das gemäß der Position und der Ausrichtung des Projektors der Einheit geschwenkt, skaliert und gedreht werden kann.
  • Gemäß mindestens einer Umsetzung kann die vorliegende Ausführungsform eine Projektoreinheit enthalten, die einen Bewegungssensor und eine Software enthält, die den Bewegungssensor in der Einheit zum Schwenken, Skalieren und Drehen des projizierten Bildes als eine uneingeschränkte interaktive virtuelle Arbeitsoberfläche (d. h. eine unbegrenzte interaktive virtuelle Arbeitsoberfläche) gemäß der Position und der Ausrichtung des Projektors der Einheit verwenden kann. Daher ist die unbegrenzte interaktive virtuelle Arbeitsoberfläche ein Arbeitsbereich, von dem zumindest ein Teil nur in dem Arbeitsspeicher der Einheit vorhanden ist, von dem aber ein begrenzter Bereich oder ein Teil eines begrenzten Bereichs durch den Projektor sichtbar gemacht werden kann und in dem Elemente endlos in jede Richtung bewegt werden können. Insbesondere ist eine virtuelle unbegrenzte Arbeitsoberfläche eine Arbeitsoberfläche mit der Fähigkeit, dass zumindest ein Teil davon nur in einem Arbeitsspeicher vorhanden ist, d. h. mindestens ein Teil davon ist in einem Arbeitsspeicher vorhanden und kann auf oder über ein konkretes Medium angezeigt oder projiziert werden. Zum Beispiel wird gemäß mindestens einer Umsetzung der vorliegenden Ausführungsform die Position jedes Elements relativ zu einer Mittenposition für die Arbeitsoberfläche und eine Darstellung eines Teils einer Arbeitsoberfläche gespeichert, der als begrenztes Bild oder Teil des unbegrenzten Bereichs auf eine Oberfläche, wie beispielsweise eine Wand oder eine Arbeitsoberfläche projiziert und abgebildet wird. Ferner kann der projizierte Teil der Arbeitsoberfläche auf Grundlage der Erkennung einer Bewegung geändert werden, die der Projektoreinheit zugehörig ist. Daher entspricht eine erkannte Bewegungsänderung, die der Projektoreinheit zugehörig ist, der Oberfläche des projizierten Teils der interaktiven Arbeitsoberfläche durch Enthüllen eines vorher nicht enthüllten Teils der Arbeitsoberfläche, die der Projektoreinheit zugehörig ist. Zum Beispiel kann eine Bewegung der Projektoreinheit nach rechts ein vorher projiziertes oder nicht enthülltes Bild enthüllen, das der Arbeitsoberfläche zugehörig ist. In einer Ausführungsform kann die Bewegung nach rechts eine „Wisch”-Funktion nachahmen, die mit einer Arbeitsoberfläche eines Computerbildschirms oder einem Bildschirm eines Mobilgeräts verknüpft ist. Ferner kann der projizierte Teil der Arbeitsoberfläche gemäß verschiedenen Ausführungsformen der vorliegenden Patentschrift ein projizierter Teil der Arbeitsoberfläche sein, die der Projektoreinheit zugehörig ist, oder er kann ein projizierter Teil einer Arbeitsoberfläche sein, die einer Datenverarbeitungseinheit zugehörig ist, die mit der Projektoreinheit verbunden ist.
  • Des Weiteren können zwei oder mehrere Projektoreinheiten in Verbindung miteinander zum Abbilden eines durchgehenden größeren projizierten Teils der virtuellen interaktiven Arbeitsoberfläche verwendet werden. Zum Beispiel kann der abgebildete projizierte Teil der kombinierten Arbeitsoberflächen der Projektoreinheiten ermöglichen, dass ein größerer Bereich von jeder der Arbeitsoberflächen abgebildet wird als in dem Fall, in dem jede Projektoreinheit für sich alleine arbeitet.
  • Ferner kann ein Benutzer mit der virtuellen Arbeitsoberfläche durch Gesten, die Bildschirmanzeige und Schaltflächen auf der Einheit interagieren. Wenn ein Benutzer zum Beispiel die Projektoreinheit bewegt, die den Bewegungssensor enthält, kann der projizierte Teil der uneingeschränktem Arbeitsoberfläche angepasst werden. Zum Beispiel kann eine Bewegung nach rechts einen anderen Teil der projizierten Arbeitsoberfläche abbilden, oder eine derartige Bewegung kann den abgebildeten Teil der Arbeitsoberfläche vor der Bewegung zusätzlich zum Abbilden des neuen Teils der projizierten Arbeitsoberfläche enthalten. Ferner kann die Arbeitsoberfläche fähig sein, eine Anzahl von „Elementen” anzuzeigen wie beispielsweise Dokumente, Bilder, Ordner, Video, Webbrowser-Registerkarten, Anwendungsfenster oder Anwendungen.
  • Gemäß mindestens einer Umsetzung kann die vollständige Arbeitsoberfläche auf einem Bildschirm oder jeder großen Anzeigeoberfläche, wie beispielsweise einer Wand, angezeigt werden. Des Weiteren kann der durch den Projektor beleuchtete Bereich vergrößert werden, indem die Einheit von der Projektionsfläche weit entfernt gehalten wird, die Stärke der Projektion kann jedoch verringert werden, möglicherweise bis zu einem Punkt, an dem sie nicht mehr sichtbar ist. Daher kann gemäß mindestens einer Umsetzung eine uneingeschränkte virtuelle Oberfläche erstellt werden, indem nur ein kleiner Projektor mit relativ geringer Leistung verwendet wird, der in die Einheit eingebettet ist und die Stärke der Projektion auf Grundlage verfügbarer Batterielaufzeit einstellen kann, ohne bei der effektiven Stärke Abstriche zu machen. Zum Beispiel kann der Benutzer die Einheit näher an die Oberfläche bewegen, und obwohl der beleuchtete Bereich dann kleiner ist, kann er in einer derartigen Situation mit geringerem Energieverbrauch genauso hell sein. Des Weiteren kann gemäß mindestens einer Umsetzung mehreren Benutzern ermöglicht werden, gleichzeitig mit den Elementen zu interagieren. Auch die relative Größe des Projektionsbereichs kann je nach Höhe der Einheit verschieden sein; allerdings kann die Position der Elemente relativ zu der Projektionsfläche, nicht der Einheit, beibehalten werden.
  • Verschiedene Ausführungsformen der vorliegenden Patentschrift können die projizierte Bildtreue aufrechterhalten sowie die Position von projizierten Elementen relativ zu der Projektionsfläche beibehalten. Des Weiteren kann ein Projektor mit geringer Leistung verwendet werden, um einen Unterabschnitt einer größeren erweiterten Realität zu beleuchten, während er eine Echtzeitanpassung des projizierten Bilds bereitstellt; eine Echtzeitanpassung des projizierten Bilds auf Grundlage des Bewegungssensors; eine Koordinierung von mehreren Einheiten, die mit verschiedenen Unterabschnitten einer projizierten virtuellen Arbeitsoberfläche interagieren; und eine Erhaltung der Batterieleistung durch eine kombinierte Anpassung von Gesamtbeleuchtung und Objektiveinstellung bereitzustellen, was zu einer Beibehaltung der Helligkeit zu Lasten der Projektionsgröße führt. Ferner können mit der Projektionseinheit selbst ausgeführte Gesten eine relative Positionierung auf der projizierten Oberfläche beibehalten, wobei Auswahl, Drag-and-drop-Funktion und andere Vorgänge ermöglicht werden.
  • Die vorliegende Erfindung kann ein System, ein Verfahren und/oder ein Computerprogrammprodukt sein. Das Computerprogrammprodukt kann ein computerlesbares Speichermedium (oder Speichermedien) mit einem computerlesbaren Programmcode darauf enthalten, um einen Prozessor zu veranlassen, Aspekte der vorliegenden Erfindung auszuführen.
  • Das computerlesbare Speichermedium kann eine konkrete Einheit sein, die Anweisungen zur Verwendung durch eine Anweisungsausführungseinheit beibehalten und speichern kann. Ein computerlesbares Speichermedium kann zum Beispiel eine elektronische Speichereinheit, eine magnetische Speichereinheit, eine optische Speichereinheit, eine elektromagnetische Speichereinheit, eine Halbleiter-Speichereinheit oder jede geeignete Kombination aus dem Vorgenannten sein, es ist aber nicht darauf beschränkt. Eine nicht erschöpfende Liste von spezielleren Beispielen für das computerlesbare Speichermedium enthält Folgendes: eine tragbare Computerdiskette, eine Festplatte, einen Direktzugriffspeicher (RAM), einen Nur-Lese-Speicher (ROM), einen löschbaren programmierbaren Nur-Lese-Speicher (EPROM oder Flash-Speicher), einen statischen Arbeitsspeicher (SRAM), einen tragbaren CD-ROM, ein DVD-Laufwerk (DVD), einen Speicherstick, eine Diskette, eine mechanisch verschlüsselte Einheit wie beispielsweise Lochkarten oder erhabene Strukturen in einer Rille mit darauf aufgezeichneten Anweisungen und jede geeignete Kombination des Vorgenannten. Ein computerlesbares Speichermedium, wie hierin verwendet, muss nicht als transitorische Signale per se ausgelegt sein, wie beispielsweise Funkwellen oder andere sich frei verbreitende elektromagnetische Wellen, elektromagnetische Wellen, die sich durch einen Wellenleiter oder andere Übertragungsmedien verbreiten (z. B. Lichtimpulse, die ein Lichtwellenleiterkabel durchlaufen) oder elektrische Signale, die durch einen Draht übertragen werden.
  • Hierin beschriebene computerlesbare Programmanweisungen können auf jeweilige Datenverarbeitungs-/Verarbeitungseinheiten von einem computerlesbaren Speichermedium oder auf einen externen Computer oder eine externe Speichereinheit über ein Netzwerk, zum Beispiel das Internet, ein lokales Netz, ein Weitverkehrsnetz und/oder ein drahtloses Netzwerk heruntergeladen werden. Das Netzwerk kann Kupferübertragungsleitungen, Lichtwellenleiter, drahtlose Übertragung, Router, Firewalls, Switches, Gateway-Computer und/oder Edge-Server aufweisen. Eine Netzwerk-Adapterkarte oder Netzwerk-Schnittstelle in jeder Datenverarbeitungs-Verarbeitungseinheit empfängt computerlesbare Programmanweisungen von dem Netzwerk und leitet die computerlesbaren Programmanweisungen zur Speicherung in einem computerlesbaren Speichermedium in der jeweiligen Datenverarbeitungs-/Verarbeitungseinheit weiter.
  • Computerlesbare Programmanweisungen zum Ausführen von Operationen der vorliegenden Erfindung können Assembler-Anweisungen, Anweisungssatzarchitektur-(Instruction Set Architecture)(ISA)Anweisungen, Maschinenanweisungen, maschinenabhängige Anweisungen, Mikrocode, Firmware-Anweisungen, Zustandseinstellungsdaten oder anderer Quellcode oder Objektcode sein, die in jeder Kombination von einer oder mehreren Programmiersprachen, einschließlich Smalltalk, C++ oder dergleichen, und herkömmlichen prozeduralen Programmiersprachen wie der Programmiersprache „C” oder ähnlichen Programmiersprachen geschrieben sind. Die computerlesbaren Programmanweisungen können vollständig auf dem Computer des Benutzers, teilweise auf dem Computer des Benutzers, als eigenständiges Softwarepaket, teilweise auf dem Computer des Benutzers und teilweise auf einem entfernt angeordneten Computer oder vollständig auf dem entfernt angeordneten Computer oder Server ausgeführt werden. In dem letzteren Szenario kann der entfernt angeordnete Computer mit dem Computer des Benutzers über jeden Typ von Netzwerk verbunden werden, einschließlich ein lokales Netzwerk (LAN) oder ein Weitverkehrsnetz (WAN), oder die Verbindung kann zu einem externen Computer hergestellt werden (zum Beispiel über das Internet unter Nutzung eines Internet-Dienstanbieters). In einigen Ausführungsformen können elektronische Schaltungen, einschließlich zum Beispiel programmierbare Logikschaltungen, feldprogrammierbare Gate-Arrays (FPGA) oder programmierbare Logik-Arrays (PLA) die computerlesbaren Programmanweisungen unter Verwendung von Zustandsinformationen der computerlesbaren Programmanweisungen zum Personalisieren der elektronischen Schaltung ausführen, um Aspekte der vorliegenden Erfindung auszuführen.
  • Aspekte der vorliegenden Erfindung werden hierin unter Bezugnahme auf Veranschaulichungen von Ablaufplänen und/oder Blockschaubildern von Verfahren, Vorrichtungen (Systemen) und Computerprogrammprodukten gemäß Ausführungsformen der Erfindung beschrieben. Es versteht sich, dass jeder Block in den Veranschaulichungen von Ablaufplänen und/oder Blockschaubildern und Kombinationen von Blöcken in den Veranschaulichungen von Ablaufplänen und/oder Blockschaubildern durch computerlesbare Programmanweisungen umgesetzt werden können.
  • Diese computerlesbaren Programmanweisungen können für einen Prozessor eines Mehrzweckcomputers, eines Spezialcomputers oder andere Vorrichtungen, die programmierbare Daten verarbeiten, bereitgestellt werden, um eine Maschine zu erzeugen, sodass die Anweisungen, die über den Prozessor des Computers oder andere Vorrichtungen, die programmierbare Daten verarbeiten, ausgeführt werden, Mittel zum Umsetzen der Funktionen/Handlungen erstellen, die in dem Ablaufplan und/oder dem Block oder den Blöcken des Blockschaubilds angegeben sind. Diese computerlesbaren Programmanweisungen können auch in einem computerlesbaren Speichermedium gespeichert werden, das einen Computer, eine programmierbare Datenverarbeitungsvorrichtung und/oder andere Einheiten so steuern kann, dass sie auf eine bestimmte Weise funktionieren, sodass das computerlesbare Speichermedium mit den darin gespeicherten Anweisungen einen Fertigungsartikel aufweist, einschließlich Anweisungen, welche die in dem Ablaufplan und/oder dem Block oder den Blöcken des Blockschaubilds angegebene Funktion/Handlung umsetzen.
  • Die computerlesbaren Programmanweisungen können auch auf einen Computer, andere programmierbare Datenverarbeitungsvorrichtungen oder eine andere Einheit geladen werden, um die Ausführung einer Serie von Arbeitsschritten auf dem Computer, einer anderen programmierbaren Vorrichtung oder einer anderen Einheit zu veranlassen, um einen über den Computer umgesetzten Prozess zu erzeugen, sodass die Anweisungen, die auf dem Computer, einer anderen programmierbaren Vorrichtung oder einer anderen Einheit ausgeführt werden, die Funktionen/Handlungen umsetzen, die in dem Ablaufplan und/oder dem Block oder den Blöcken des Blockschaubilds angegeben sind.
  • Der Ablaufplan und die Blockschaubilder in den Figuren veranschaulichen die Architektur, die Funktionalität und den Betrieb von möglichen Umsetzungen von Systemen, Verfahren und Computerprogrammprodukten gemäß verschiedenen Ausführungsformen der vorliegenden Erfindung. Diesbezüglich kann jeder Block in dem Ablaufplan oder in den Blockschaubildern ein Modul, ein Segment oder einen Abschnitt von Anweisungen darstellen, der eine oder mehrere ausführbare Anweisungen zum Umsetzen der angegebenen logischen Funktion(en) aufweist. In einigen alternativen Umsetzungen können die in dem Block angegebenen Funktionen außerhalb der Reihenfolge auftreten, die in den Figuren angegeben ist. Zum Beispiel können zwei nacheinander gezeigte Blöcke tatsächlich im Wesentlichen parallel ausgeführt werden, oder die Blöcke können manchmal in der umgekehrten Reihenfolge ausgeführt werden, was von der beteiligten Funktionalität abhängt. Es wird ebenfalls angemerkt, dass jeder Block der Blockschaubilder und/oder Veranschaulichung des Ablaufplans und Kombinationen von Blöcken in den Blockschaubildern und/oder der Veranschaulichung des Ablaufplans durch spezielle Systeme auf Grundlage von Hardware umgesetzt werden können, die die angegebenen Funktionen oder Handlungen ausführen oder Kombinationen von spezieller Hardware und Computeranweisungen ausführen.
  • Die im Folgenden beschriebenen beispielhaften Ausführungsformen stellen ein System, ein Verfahren und ein Programmprodukt bereit, um eine uneingeschränkte projizierte interaktive virtuelle Arbeitsoberfläche bereitzustellen. Ausführungsformen der vorliegenden Erfindung können die Projektion berechnen, um eine Anzahl von Variablen zu berücksichtigen, alle entweder absolut oder relativ zu einer Markierung. Zum Beispiel kann die Position der Einheit in drei Dimensionen berechnet werden. Der Anzeigebereich als solcher kann geschwenkt und die Projektion skaliert werden. Auch die Ausrichtung der Einheit kann in drei Dimensionen berechnet werden, sodass das Bild des Anzeigebereichs gestreckt und verzerrt werden kann, als wäre die Einheit flach. Ferner kann die Platzierung der Objekte auf der Oberfläche berechnet werden. Daher kann ein auf der Oberfläche platziertes Objekt von einer Kamera oder einer Kamera-Anordnung erkannt werden, die entweder in die Haupteinheit eingebaut ist oder diese ergänzt. Anschließend kann das Bild korrigiert werden, sodass das Bild nicht durch eine größere Nähe zu der Einheit vergrößert werden kann, wenn das Objekt zwischen der Oberfläche und der Einheit platziert wird. Um die Genauigkeit noch weiter zu verbessern, kann die Einheit außerdem in Verbindung mit auf einem Tisch montierten Kameras oder anderen Sensoren (wie beispielsweise eine Anordnung von Infrarot-(IR)Einheiten) verwendet werden, die fähig sind, die Position und Stellung der Einheit in drei Dimensionen genau zu bestimmen.
  • Umsetzungen der vorliegenden Ausführungsform können auch eine Benutzerinteraktion ermöglichen. Zum Beispiel kann eine Reihe von Gesten mit der Einheit selbst ausgeführt werden, um Elemente auf der Tischoberfläche auszuwählen und damit zu interagieren. Zu einigen der Hauptinteraktionen zählen ein Aufnehmen und Ablegen von Elementen und ein Verwenden des Einheitenbildschirms und von Gesten zum Interagieren mit der Einheit. Insbesondere kann ein Benutzer das Gerät nach vorne schnellen lassen, um ein Element abzulegen (wodurch ein Stapel erstellt werden kann); nach oben schnellen lassen, um ein Element von der Tischoberfläche aufzunehmen; oder es seitwärts schnellen lassen, um einen Stapel zu durchsuchen. Wenn die Einheit bewegt wird, kann die Bewegung durch Bewegungssensoren in der Einheit verfolgt werden. Derartige Bewegungssensoren können Oberflächen in der Nähe erkennen, oder derartige Bewegungssensoren können mit Einheiten auf oder in der Nähe der Oberfläche interagieren. Gemäß mindestens einer Umsetzung kann das projizierte Bild erneut berechnet werden, um den Bereich des Bilds darzustellen, der diesem Teil der Oberfläche entspricht, und gegebenenfalls mithilfe vorhandener Technologie gedreht und gestreckt werden, um den Winkel der Einheit relativ zu der bzw. den Oberflächen zu berücksichtigen. Des Weiteren kann ein Benutzer auch ein einzelnes mehrseitiges Element aufnehmen, wie beispielsweise ein Buch oder Dokument, und anschließend eine Schnellbewegung zur Seite verwenden, um sich durch die Seiten des Dokuments zu bewegen.
  • Verschiedene Ausführungsformen der vorliegenden Patentschrift können auch eine Objektfixierung ermöglichen. Daher können virtuelle Objekte fest mit physischen Objekten verknüpft werden, um Hybridstapel zu erstellen. Zum Beispiel kann sich ein virtuelles Element bewegen, das „auf” einem Untersetzer auf der realen Tischoberfläche platziert wird, wenn der Untersetzer bewegt wird. Ein Element wie ein Dokument, ein Foto oder ein Video, das auf einem realen Blatt Papier platziert wird, kann sich mit dem realen Papier bewegen, als ob es sich in einem Papierstapel befindet. Daher können die Stapel in Sichtweite oder außer Sichtweite der Kamera bewegt werden. Wenn sich die physischen Elemente außer Sichtweite der Kamera befinden, kann gemäß mindestens einer Umsetzung die Einheit erstmals deren neue Positionen erkennen und aufzeichnen, wenn die physischen Objekte erstmals in einer neuen Position beobachtet werden. Wenn die alte Position jedoch von der Kamera angezeigt wurde, bevor die neue Position geortet wird, kann der Stapel vorübergehend in einer virtuellen „Ablage” platziert werden, bis die Position neu zugewiesen werden kann. Anschließend können die Benutzer die Ablagen und Stapel auf ihrer Einheit unabhängig von deren physischen Positionen in einem Stapel und einer Ablagenanzeige sortieren und können diese Ansicht verwenden, um Dokumente weiter zu organisieren, sogar nachdem sie die Position auf der Tischoberfläche verlassen haben. Daher kann eine Tischoberfläche gespeichert und an einer neuen Position neu erstellt werden. Um dies zu erleichtern, kann der Benutzer eine Ablage (d. h. jeden Stapel, dessen physikalische Fixierung oder dessen Gegenstück nach nicht gefunden wurde) aufnehmen und in einer neuen Position auf dem Tisch platzieren.
  • Gemäß mindestens einer Umsetzung kann die vorliegende Ausführungsform eine Interaktion auf dem Bildschirm ermöglichen. Wenn die Einheit daher auf ein Element auf dem Tisch gerichtet wird, aber noch kein Element „vorliegt” oder aufgenommen wurde, kann das Element, auf das gezeigt wird oder eine Darstellung dieses Element, wie beispielsweise ein bestimmtes Symbol, auf der Einheit angezeigt werden. Anschließend kann der Benutzer mit dem Element auf dem Bildschirm interagieren. Zum Beispiel kann der Benutzer mit dem Element interagieren, indem er es bearbeitet, es liest oder in diesem Element navigiert. Wenn ein Benutzer ein Element aufnimmt, wird das Element auf dem Bildschirm „arretiert”, bis der Benutzer das Element ablegt oder etwas anderes in der Bildschirmnavigation verwendet, um sich davon weg zu bewegen. Außerdem kann eine Anzeige auf dem Einheitenbildschirm eine weitere Interaktion mit Elementen und Stapeln ermöglichen, indem Elemente, Stapel und nicht in einem Stapel befindliche Elemente aufgelistet werden und Operationen an den Elementen und Stapeln ermöglicht werden. Ferner kann die Bildschirmanzeige erscheinen, wenn die Einheit nicht auf ein Element gerichtet wird, oder wenn eine Schaltfläche auf der Einheit gedrückt oder eine bestimmte Geste ausgeführt wird. Die vorliegende Ausführungsform kann ermöglichen, dass ein Stapel in einen Ordner, in eine Sammlung oder ein Set in einem Online-Dokument oder Content-Management-System oder Ablagesystem unter Verwendung von Gesten oder auf der Bildschirmanzeige umgewandelt oder zu diesen hinzugefügt wird. Zum Beispiel kann ein gesamter Tisch mit einer einzigen Aktion in eine Bibliothek oder ein Set von Ordnern umgewandelt werden, wobei die Tischoberflächenorganisation in einem Content-Management- oder Ablagesystem gespiegelt wird. Zu einem Ordner kann ein Stapel hinzugefügt werden, sodass weitere Elemente in dem Stapel automatisch zu dem Ordner hinzugefügt werden, und ein Stapel kann mit einem Ordner verknüpft werden, sodass Elemente in dem Ordner dem Stapel automatisch hinzugefügt werden können. Alle Aktionen auf der Bildschirmanzeige können mit Gesten erfolgen, und die Einheit kann eine Anpassung ermöglichen, wie beispielsweise Zuweisen von Gesten zu Aktionen und Programmieren von neuen Gesten.
  • Gemäß der vorliegenden Erfindung kann eine Einheit selbst in der Hand gehalten werden, tragbar oder implantierbar sein und kann einen Projektor, einen Bewegungssensor, eine Bildschirmanzeige und spezielle Software enthalten. Diese können physisch in verschiedene Module getrennt sein, die in verschiedenen Umsetzungen zusammenarbeiten. Ferner kann die vorliegende Ausführungsform eine Helligkeitsanpassung ermöglichen. Daher kann der Projektor auch Linsen enthalten, die nicht nur zum Fokussieren der Projektion, sondern auch zum Verkleinern oder Vergrößern des Projektionsbereichs unter Beibehaltung der Helligkeit verwendet werden können. Unter Verwendung dieses Mechanismus kann der beleuchtete Bereich verkleinert werden, indem die gesamte Beleuchtungsstärke der Einheit ohne Verringerung der Helligkeit reduziert wird. Diese Helligkeitsanpassung kann zum Erhalten der Batterielaufzeit oder Beibehalten einer konstanten Helligkeit verwendet werden, wenn die Einheit näher zu der Einheit hin oder weiter von ihr weg bewegt wird.
  • Außerdem können mehrere Benutzer, die jeweils die vorliegende Ausführungsform verwenden, gleichzeitig mit den Elementen auf der virtuellen Tischoberfläche interagieren. Wenn ein Element modifiziert wird, können die Modifizierungen mittels Nahfeldkommunikation, über einen Server oder einen Cloud-Dienst oder über eine Netzwerkdatenübertragung zwischen den Einheiten übermittelt werden. Daher können mehrere Einheiten entweder mit Funkantenne oder anderen Positionierungssensoren interagieren, um ihre Stellung und Ausrichtung relativ zueinander zu verbessern. Wenn sich die Projektionsbereiche annähern und überlappen, können Kameras auf den Einheiten zum Verbessern der Genauigkeit von Einheitenposition und Ausrichtungserkennung verwendet werden, indem das von den anderen Einheiten relativ zu der Darstellung der Tischoberfläche im Arbeitsspeicher projizierte Bild überwacht wird. Des Weiteren können visuelle Token oder Elemente außerhalb des menschlichen Sehspektrums in die Projektion eingebettet werden, um mehrere Einheiten bei der Koordinierung ihrer Projektionen zu unterstützen.
  • Unter folgender Bezugnahme auf 1 wird eine beispielhafte vernetzte Computerumgebung 100 gemäß einer Ausführungsform dargestellt. Eine Computerumgebung 100 kann einen Computer 102A, 102B mit einem Prozessor 104A und einer Datenspeichereinheit 106A enthalten, die ein Programm für eine uneingeschränkte projizierte interaktive virtuelle Arbeitsoberfläche 108A ausführen kann. Gemäß mindestens einer Umsetzung der vorliegenden Ausführungsform kann der Computer 102A, 102B auch einen Bewegungssensor 116 und einen Projektor 112 enthalten. Der Bewegungssensor 116 kann jeden Mechanismus zum Erfassen der relativen Bewegung der Einheit enthalten. Außerdem kann der Bewegungssensor 116 gemäß mindestens einer Umsetzung der vorliegenden Ausführungsform fähig sein, die Stellung der Einheit 102A, 102B zu einem Zeitpunkt und anschließend die Stellung der Einheit 102A, 102B zu einem späteren Zeitpunkt zu erkennen. Gemäß einer alternativen Umsetzung kann die Einheit 102A, 102B ferner zusätzlich zu einem Bewegungssensor 116, der bei Bewegung der Einheit relativ zu der Oberfläche helfen kann, Techniken verwenden, bei denen ein aktives oder ein passives Autofokus-Erkennungssystem (wie beispielsweise Kontrast- oder Phasenerkennung) verwendet wird, um den relativen Winkel der Ebene der projizierten Oberfläche relativ zu der Einheit zu erkennen. Daher können mehrere Punkte für eine optimale Fokussierung geprüft werden, wobei die Entfernung zu mehreren Punkten in der Projektionsebene abgeleitet wird und daher die Berechnung der Entfernung zu mehreren Punkten und die erneute Erstellung der Geometrie der Ebene im Arbeitsspeicher der Einheit ermöglichen kann.
  • Die vernetzte Computerumgebung 100 kann auch ein Datenübertragungsnetzwerk 110 und einen Server 114 mit einem Prozessor 104B und einer Datenspeichereinheit 10B6 enthalten, der ein Programm für eine uneingeschränkte projizierte interaktive virtuelle Arbeitsoberfläche 108A ausführen kann. Die vernetzte Computerumgebung 100 kann eine Mehrzahl von Computern 102A, 102B und Servern 114 enthalten, von denen nur einer gezeigt wird. Das Datenübertragungsnetzwerk kann verschiedene Typen von Datenübertragungsnetzwerken enthalten, wie beispielsweise ein Weitverkehrsnetz (WAN), ein lokales Netz (LAN), ein Telekommunikationsnetz, ein drahtloses Netzwerk, ein öffentliches Vermittlungsnetz und/oder ein Satellitennetz. Es sollte klar sein, dass 1 nur eine Veranschaulichung von einer Umsetzung bereitstellt und keinerlei Einschränkungen hinsichtlich der Umgebungen impliziert, in denen verschiedene Ausführungen umgesetzt werden können.
  • Wie unter Bezugnahme auf 6 erörtert wird, können der Client-Computer 102A, 102B und der Server 114 jeweils interne Komponenten 800 und externe Komponenten 900 enthalten. Die Client-Computer 102A, 102B können zum Beispiel eine Mobilgerät, ein Telefon, ein Personal Digital Assistant (PDA), ein Netbook, ein Laptop-Computer, ein Tablet-Computer, ein Desktop-Computer, ein Server-Computer oder jeder Typ einer Datenverarbeitungseinheit sein, der fähig ist, ein Programm auszuführen, wie beispielsweise das Programm für uneingeschränkte projizierte interaktive virtuelle Arbeitsoberfläche 108A.
  • Ein Programm wie das Programm für uneingeschränkte projizierte interaktive virtuelle Arbeitsoberfläche 108A, 108B kann auf dem Client-Computer 102A, 102B oder dem Server-Computer 114 ausgeführt werden. Wie vorher beschrieben, kann das uneingeschränkte projizierte interaktive System einen Projektor 112 und einen Bewegungssensor 116 enthalten, die in ein Mobilgerät wie den Client-Computer 102A, 102B integriert sind, der Software enthält, wie beispielsweise das Programm für uneingeschränkte projizierte interaktive virtuelle Arbeitsoberfläche 108A. Das Programm für uneingeschränkte projizierte interaktive virtuelle Arbeitsoberfläche 108A, 108B kann den Bewegungssensor 116 in der Einheit 102A, 102B verwenden, um das projizierte Bild als eine uneingeschränkte virtuelle Arbeitsoberfläche gemäß der Position und Ausrichtung des Projektors der Einheit zu schwenken, zu skalieren und zu drehen. Ferner kann ein Benutzer mit der projizierten virtuellen Arbeitsoberfläche durch Gesten auf der Bildschirmanzeige und Schaltflächen auf der Einheit 102A, 102B interagieren. Wenn ein Benutzer zum Beispiel die Projektoreinheit 102A, 102B bewegt, die den Bewegungssensor 116 enthält, kann der projizierte Teil der uneingeschränktem Arbeitsoberfläche angepasst werden. Ferner kann die Arbeitsoberfläche fähig sein, eine Anzahl von „Elementen” anzuzeigen wie beispielsweise Dokumente, Bilder, Ordner, Video, Webbrowser-Registerkarten, Anwendungsfenster oder Anwendungen. Das Verfahren der uneingeschränkten projizierten interaktiven virtuellen Arbeitsoberfläche wird im Folgenden ausführlicher unter Bezugnahme auf 2 erläutert.
  • Unter folgender Bezugnahme auf 2 wird ein Arbeitsablaufplan 200, der die Schritte veranschaulicht, die durch ein Programm zum Projizieren einer uneingeschränkten projizierten interaktiven virtuellen Arbeitsoberfläche ausgeführt werden, gemäß mindestens einer Ausführungsform dargestellt. In Schritt 202 sind ein Projektor und ein Bewegungssensor in ein Mobilgerät integriert. Das Programm für uneingeschränkte projizierte interaktive virtuelle Arbeitsoberfläche 108A, 108B (1) kann so umgesetzt werden, dass es auf einem Client-Computer 102A, 102B (1) ausgeführt wird. Wie vorher beschrieben, kann das System für uneingeschränkte projizierte interaktive virtuelle Arbeitsoberfläche einen Projektor 112 (1) und einen Bewegungssensor 116 (1) enthalten, die in eine Einheit integriert sind, wie beispielsweise ein Mobilgerät 102B (1) eines Endbenutzers, einen Computer 102A (1), ein Smartphone oder ein Tablet, das einen Bewegungssensor 116 (1) enthält, es ist aber nicht darauf beschränkt. Das System für uneingeschränkte projizierte interaktive virtuelle Arbeitsoberfläche kann auch Software enthalten, wie beispielsweise das Programm für uneingeschränkte projizierte interaktive virtuelle Arbeitsoberfläche 108A, 108B (1), das den Bewegungssensor 116 (1) in der Einheit verwenden kann, um das projizierte Bild als eine uneingeschränkte virtuelle Arbeitsoberfläche gemäß der Position und Ausrichtung des Projektors 112 (1) der Einheit zu schwenken, zu skalieren und zu drehen. Wenn ein Benutzer zum Beispiel die Projektoreinheit 102A, 102B (1) bewegt, die den Bewegungssensor 116 (1) enthält, kann der projizierte Teil der uneingeschränkten Arbeitsoberfläche angepasst werden.
  • Danach wird in Schritt 204 die Position der Einheit von dem Bewegungssensor erfasst, was ein Erfassen einer Änderung von Position, Richtung oder Ausrichtung beinhaltet. Daher kann das Programm für uneingeschränkte projizierte interaktive virtuelle Arbeitsoberfläche 108A, 108B (1) die Position der Einheit auf Grundlage des in die Einheit integrierten Bewegungssensors bestimmen. Gemäß einer alternativen Umsetzung kann der Bewegungssensor jedoch als Software umgesetzt werden, die Bilder interpretiert, die von einer Kamera erfasst werden, die an der Projektoreinheit angebracht ist, im Gegensatz zu dem Bewegungssensor, der als ein physisches Hardware-Element umgesetzt ist, das in die Projektoreinheit integriert ist. Außerdem kann ein Punkt einer Infrarotwelle auf der projizierten Oberfläche gemäß einer alternativen Umsetzung verwendet werden. Somit kann ein Punkt einer Infrarotwelle auf der projizierten Oberfläche umgesetzt werden, sodass die Projektoreinheit entweder durch eine Kamera oder einen Infrarotsensor fähig ist zu bestimmen, wo sich die Projekteinheit in Bezug auf den festgelegten Punkt befindet, der durch den Punkt der Infrarotwelle angegeben wird. Ferner kann der Bewegungssensor aus einer Gruppe ausgewählt werden, die aus einem eingebetteten Beschleunigungsmesser; einem Gyroskop; einem Positionierungssystem; und einem eingebetteten oder externen elektromagnetischen oder Ultraschall-Bewegungssensor besteht.
  • In Schritt 206 wird anschließend das projizierte Bild auf Grundlage der Position der Einheit relativ zu der projizierten Oberfläche berechnet (d. h. kalkuliert). Wie vorher unter Bezugnahme auf eine Umsetzung beschrieben, kann die Projektion des Bilds durch das Programm für uneingeschränkte projizierte interaktive virtuelle Arbeitsoberfläche 108A, 108B (1) berechnet werden, um eine Anzahl von Variablen zu berücksichtigen, entweder absolut oder relativ zu einer Markierung, wie beispielsweise die projizierte Oberfläche. Zum Beispiel können die Variablen die Position der Einheit in drei Dimensionen; die Ausrichtung der Einheit in drei Dimensionen; und die Platzierung von Objekten auf der Oberfläche enthalten. Unter Verwendung einer grundlegenden dreidimensionalen Geometrie können die Dimensionen des projizierten Bilds durch eine Ausdehnung eines Kegels oder einer Pyramide von dem Projektor auf die Oberfläche berechnet werden. Die äußeren Dimensionen der Projektion werden berechnet, und das projizierte Bild wird angepasst, um einen entsprechenden Teil der uneingeschränkten Arbeitsoberfläche zu projizieren.
  • Daher kann auf Grundlage derartiger Variablen der Anzeigebereich geschwenkt und die Projektion durch das Programm für uneingeschränkte projizierte interaktive virtuelle Arbeitsoberfläche 108A, 108B (1) skaliert werden. Außerdem kann das Bild des Anzeigebereichs so gestreckt und verzerrt werden, als ob die Einheit flach wäre. Ferner kann ein auf der Oberfläche platziertes Objekt erkannt werden, und anschließend kann das Bild korrigiert werden, sodass das Bild nicht durch eine größere Nähe zu der Einheit vergrößert werden kann, wenn das Objekt zwischen der Oberfläche und der Einheit platziert wird. Um die Genauigkeit noch weiter zu verbessern, kann die Einheit 102A, 102B (1) außerdem in Verbindung mit auf einem Tisch montierten Kameras oder anderen Sensoren (wie beispielsweise eine Anordnung von Infrarot-(IR)Einheiten) verwendet werden, die fähig sind, die Position und Stellung der Einheit in drei Dimensionen genau zu bestimmen.
  • Als Nächstes wird in Schritt 208 ein unbegrenztes projiziertes Bild auf Grundlage der Position und Ausrichtung des Projektors über Anwendungen übergreifend koordiniert, die auf dem Mobilgerät ausgeführt werden. Daher wird jedes Fenster oder Element auf der Arbeitsoberfläche in Bezug auf einen mittigen Referenzpunkt positioniert. Gemäß einer Umsetzung der vorliegenden Ausführungsform kann die Koordinierung des unbegrenzten projizierten Bilds über mindestens eine Anwendung, die auf dem Mobilgerät ausgeführt wird, auf der erfassten Position und einer Ausrichtung des Projektors beruhen. Außerdem kann die der Bildprojektion zugehörige Stärke auf einer Entfernung des Projektors zu der Projektionsfläche beruhen.
  • In Schritt 210 wird danach eine begrenzte Ansicht eines Teils des uneingeschränkten Bereichs projiziert. Die projizierte begrenzte Ansicht kann aus mehreren Elementen bestehen, unter anderem aus Anwendungsbildern, die eine virtuelle Arbeitsoberfläche darstellen. Gemäß mindestens einer Umsetzung kann die begrenzte Ansicht eine Stellung und Größe von Elementen in der begrenzten Projektion relativ zu der Projektionsoberfläche beibehalten, indem an der Kalkulation der begrenzten Ansicht Korrekturen vorgenommen werden. Ferner können die Elemente aus einer Gruppe mit Dokumenten, Bildern, Ordnern, Videos, Webbrowser-Registerkarten, Anwendungsfenstern und Anwendungssymbolen ausgewählt werden.
  • Als Nächstes wird in Schritt 212 die begrenzte Ansicht auf Grundlage eines Kriteriums angepasst. Gemäß einer Umsetzung der vorliegenden Ausführungsform können die Kriterien, die zum Anpassen der begrenzten Ansicht verwendet werden können, einen Regelsatz enthalten. Die Regeln können auf Elementen beruhen, wie beispielsweise Energieverbrauch; Entfernung zu einer Projektionsoberfläche; Bewegung; Bildtreue; Außenlicht oder Umgebungslicht; Neigung oder Winkel der Einheit relativ zu der Oberfläche; und Informationen, die von mindestens einer anderen Einheit empfangen werden, sie sind aber nicht darauf beschränkt. Die primären Anpassungen an die Ansicht behalten Elemente in dem projizierten Bild in einer konstanten Position, Ausrichtung und Perspektive relativ zu der projizierten Oberfläche bei, ungeachtet jeder Bewegung der projizierenden Einheit und ungeachtet jeder Bewegung der Einheit. Energieverbrauch und Restenergie werden überwacht, und das Bild wird entsprechend zu Anpassungen von Lumenleistung und Projektionsskalierung wie später beschrieben angepasst, wobei die Stellung von Elementen relativ zu der Oberfläche beibehalten wird, während Lampenleistung und Skalierung zum Verkleinern oder Vergrößern der Größe des Anzeigebereichs angepasst werden.
  • Des Weiteren kann die vorliegende Ausführungsform eine Benutzeroberfläche (UI) bereitstellen, wobei die Benutzeroberfläche (UI) es einem oder mehreren Benutzern ermöglichen kann, mindestens zwei getrennte Einheiten für ein unabhängiges Einwirken auf die Elemente zu verwenden. Zum Beispiel kann die Benutzerschnittstelle (UI) es mindestens zwei Benutzern ermöglichen, unabhängig auf die Elemente einzuwirken, wobei jeder Benutzer seine eigene getrennte Einheit verwendet. Des Weiteren kann die Benutzeroberfläche (UI), die der uneingeschränkten projizierten interaktiven virtuellen Arbeitsoberfläche zugehörig ist, aus einer Gruppe von Gesten ausgewählte Gesten unterstützen. Die Gruppe kann aus Gesten wie Ziehen; Aufnehmen; Ablegen; Fixieren und Navigieren usw. bestehen. Wenn ein Benutzer zum Beispiel die Projektoreinheit bewegt, die den Bewegungssensor enthält, kann der projizierte Teil der uneingeschränkten Arbeitsoberfläche angepasst werden. Wie vorher beschrieben, kann ein Benutzer das Gerät nach vorne schnellen lassen, um ein Element abzulegen (wodurch ein Stapel erstellt werden kann); es nach oben schnellen lassen, um ein Element von der Tischoberfläche aufzunehmen; oder es seitwärts schnellen lassen, um einen Stapel zu durchsuchen. Wenn die Einheit bewegt wird, kann die Bewegung durch Bewegungssensoren in der Einheit verfolgt werden. Gemäß mindestens einer Umsetzung kann das Verfahren, nachdem die begrenzte Ansicht auf Grundlage der Kriterien angepasst worden ist, in einer Schleife zum vorher beschriebenen Schritt 204 zurücklaufen, um die Position der Einheit durch den Bewegungssensor zu erfassen und den Prozess zu wiederholen, der unter Bezugnahme auf die Schritte 206 bis 212 beschrieben wurde.
  • Es ist sollte klar sein, dass 2 nur eine Veranschaulichung einer Umsetzung bereitstellt und keinerlei Einschränkungen hinsichtlich der Umsetzung verschiedener Ausführungen impliziert. Zahlreiche Modifizierungen an den dargestellten Umgebungen können auf Grundlage von Aufbau- und Umsetzungsanforderungen vorgenommen werden. Wie vorher zum Beispiel in Bezug auf eine alternative Umsetzung beschrieben, kann der Bewegungssensor als Software umgesetzt werden, die Bilder interpretiert, die von einer Kamera erfasst werden, die an der Projektoreinheit angebracht ist, im Gegensatz zu dem Bewegungssensor, der als ein physisches Hardware-Element umgesetzt ist, das in die Projektoreinheit integriert ist. Außerdem kann ein Punkt einer Infrarotwelle auf der projizierten Oberfläche gemäß einer alternativen Umsetzung verwendet werden. Wie vorher beschrieben, kann zusätzlich zu einem Bewegungssensor 116 (1), der bei Bewegung der Einheit relativ zu der Oberfläche Hilfe bieten kann, die Einheit 102A, 102B (1) Techniken verwenden, bei denen ein aktives oder ein passives Autofokus-Erkennungssystem verwendet wird, um den relativen Winkel der Ebene der projizierten Oberfläche relativ zur Einheit zu erkennen. Daher können mehrere Punkte für eine optimale Fokussierung geprüft werden, wobei die Entfernung zu mehreren Punkten in der Projektionsebene abgeleitet wird und daher die Berechnung der Entfernung zu mehreren Punkten und die erneute Erstellung der Geometrie der Ebene im Arbeitsspeicher der Einheit ermöglichen kann.
  • Unter folgender Bezugnahme auf 3 wird eine beispielhafte Veranschaulichung 300 des projizierten Arbeitsoberflächenbilds gemäß mindestens einer Umsetzung der vorliegenden Ausführungsform dargestellt. Wie vorher beschrieben, kann ein Benutzer eine Projektoreinheit 302 mit einem Bewegungssensor 116 (1), einem Projektor 112 (1) und der Software 108A, 108B (1) verwenden, die den Bewegungssensor 116 (1) in der Einheit 302 zum Schwenken, Skalieren und Drehen des projizierten Bilds als eine begrenzte Ansicht (d. h. eines Teils) einer gesamten virtuellen Arbeitsoberfläche 304 verwenden kann, die gemäß der Position und Ausrichtung des Projektors 112 (1) der Einheit 302 erstellt wurde. Gemäß mindestens einer Umsetzung der vorliegenden Ausführungsform kann zum Beispiel ein „Snapshot” eines Computerbildschirms als ein Bild 304 auf eine Oberfläche wie eine Wand oder eine Arbeitsoberfläche projiziert und abgebildet werden. Zusammen bilden alle projizierten Bereiche eine virtuelle Arbeitsoberfläche 304. Die virtuelle Arbeitsoberfläche 304 ist fähig, eine Anzahl von „Elementen” 306 bis 312 anzuzeigen, die Dokumente, Bilder, Ordner, Video, Webbrowser-Registerkarten, Anwendungsfenster oder Anwendungen enthalten können. Der projizierte Bereich 304 wird nur zu Veranschaulichungszwecken als ein Kreis gezeigt, er kann jedoch auch in einer anderen Form abgebildet werden, wie beispielsweise ein Rechteck oder ein Quadrat.
  • Ein Benutzer, der die Projektoreinheit 302 verwendet, kann mit der projizierten virtuellen Arbeitsoberfläche 304 durch Gesten mit der Bildschirmanzeige und Schaltflächen auf der Einheit 302 interagieren. Wenn ein Benutzer zum Beispiel die Projektoreinheit 302 bewegt, die den Bewegungssensor enthält, kann der projizierte Teil der Arbeitsoberfläche 304 angepasst werden. Zum Beispiel kann eine Bewegung nach rechts einen anderen Teil der projizierten Arbeitsoberfläche 304 abbilden, oder eine derartige Bewegung kann den abgebildeten Teil der Arbeitsoberfläche 304 vor der Bewegung zusätzlich zum Abbilden des neuen Teils der projizierten Arbeitsoberfläche 304 enthalten.
  • Zu Veranschaulichungszwecken kann ein Bereich 314 außerhalb der virtuellen Arbeitsoberfläche 304 einen Anzeigebereich darstellen, der für einen Benutzer nicht sichtbar ist, da er gegenwärtig nicht projiziert wird. Dieser Bereich 314 kann in der Projektoreinheit 302 dargestellt werden und durch Bewegen der Projektoreinheit 302 enthüllt werden. Außerdem stellt ein Punkt 316 oben an der Projektoreinheit 302 die Position des Projektors auf der Einheit zu Veranschaulichungszwecken dar.
  • Unter folgender Bezugnahme auf 4 wird eine beispielhafte Veranschaulichung 400 einer Bewegung der Einheit dargestellt, die das projizierte Arbeitsoberflächenbild gemäß mindestens einer Ausführungsform anpasst. Wenn ein Benutzer zum Beispiel wie vorher beschrieben die Projektoreinheit 302 bewegt, wird der projizierte Teil der Arbeitsoberfläche 304 angepasst. Zum Beispiel kann eine Bewegung der Projektoreinheit 302 nach rechts einen anderen Teil der projizierten Arbeitsoberfläche 304 abbilden, oder eine derartige Bewegung kann den abgebildeten Teil der Arbeitsoberfläche 304 vor der Bewegung zusätzlich zum Abbilden des neuen Teils der projizierten Arbeitsoberfläche 304 enthalten. Daher kann die Bewegung der Projektoreinheit 302 zu der Position der vorher angezeigten „Elemente” 306 bis 312 führen, beispielsweise Dokumente, Bilder, Ordner, Video, Webbrowser-Registerkarten, Anwendungsfenster, oder Anwendungen können in Bezug auf den abgebildeten Teil der Arbeitsoberfläche 304 angepasst werden und neue „Elemente” 402 bis 404 können angezeigt werden. Ferner kann eine Bewegung der Projektoreinheit 302, wie in 4 abgebildet, die Stellung des abgebildeten Teils der projizierten Arbeitsoberfläche relativ zu der Oberfläche 314 anpassen, wodurch das projizierte Arbeitsoberflächenbild angezeigt wird.
  • Ferner kann die vorliegende Ausführungsform fähig sein, eine virtuelle Oberfläche 314 zu erstellen, indem nur ein kleiner Projektor mit relativ geringer Leistung verwendet wird, der in die Einheit 302 eingebettet ist und die Stärke der Projektion auf Grundlage verfügbarer Batterielaufzeit einstellen kann, ohne bei der effektiven Stärke Abstriche zu machen. Zum Beispiel kann der Benutzer die Einheit 302 näher an die Oberfläche bewegen, und obwohl der beleuchtete Bereich dann kleiner ist, kann er in einer derartigen Situation mit geringerem Energieverbrauch genauso hell sein. Daher wird Batterieleistung durch die kombinierte Anpassung von Gesamtbeleuchtung und Objektiveinstellung eingespart, was zu einer Beibehaltung der Helligkeit zu Lasten der Projektionsgröße führt.
  • Wenn des Weiteren gemäß mindestens einer Umsetzung die Entfernung eines Projektors 112 (1) in einer Einheit 302 zu der Oberfläche 314 verdoppelt wird, vervierfacht sich der Oberflächenbereich 314 des projizierten Bilds 304 (durch Verdoppelung in jeder Dimension), vorausgesetzt, der Projektor 112 (1) verwendet den vollen Bereich des Projektors 112 (1). Eine konstante Lumenleistung von dem Projektor 112 (1) vorausgesetzt, beträgt der Luxwert (Lumen pro Quadratmeter) des projizierten Bilds ein Viertel für jede Verdoppelung der Entfernung. Solange ausreichende gespeicherte Energie vorhanden ist, wie durch die geplante Laufzeit der aktuellen Batterieladung und die Einstellungen des Benutzers oder die aktuelle Verwendung festgelegt, kann die vorliegende Ausführungsform die Lumenleistung der Lichtquelle des Projektors 112 (1) in Reaktion auf die Bewegung der Einheit 302 von der Projektionsoberfläche 314 in der Absicht erhöhen, einen konstanten Luxwert aufrecht zu erhalten. Zum Beispiel kann der Projektor 112 (1) durch Nichtbeachten einer variablen Lichtübertragung durch den Projektor 112 (1), die sich aus einer unterschiedlichen Zusammensetzung von Ausgangswellenlängen bei verschiedenen Dimmverhältnissen ergibt, die Lumenleistung für eine Verdoppelung der Entfernung der Einheit 302 zu der Oberfläche 314 vervierfachen.
  • Ferner kann die Einheit 302 den Energieverbrauch verringern, aber gleichzeitig einen konstanten Luxwert durch Verkleinern des Oberflächenbereichs 314 der Projektion beibehalten, wobei auch die Größe der Elemente 306 bis 312 in dem projizierten Bild 304 relativ zu der Oberfläche 314 beibehalten wird, was eine einfach anzuzeigende Arbeitsoberfläche selbst mit helleren Lichtbedingungen bei hoher Erhaltung der Batterieleistung ermöglicht. In einer Ausführungsform wird ein Liquid Crystal an Silicon-(Flüssigkristall auf Silizium)(LCoS)Pico-Projektor in Fällen verwendet, in denen die von der Lichtquelle oder Lampe ausgestrahlten Lumen in Verbindung mit einer Linsenanordnung verändert werden, die zum Fokussieren der Lichtquelle verwendet wird, um eine konstante Projektionsgröße relativ zu der Oberfläche 314 zu erhalten. Wenn eine Energieeinsparung erforderlich wird, kann die vorliegende Ausführungsform die Größe der projizierten Oberfläche automatisch verkleinern oder die Lichtquelle durch optische Elemente fokussieren, die die gesamte Lumenleistung der Lichtquelle über einen kleineren projizierten Bereich 304 fokussieren, wobei ein Dimmen der Lichtquelle koordiniert wird. Zum Beispiel kann mit einer LED als eine Lichtquelle zur Energieversorgung einer digitalen Lichtverarbeitung (DLP) oder eines Flüssigkristalls auf Silizium (LCoS) die Eingangsleistung der Lichtquelle unter Verwendung der vorhandenen LED-Dimmtechniken gedimmt werden. Die Verkleinerung des Projektionsbereichs 304 wird mit einer Verringerung der Lumenausgangsleistung koordiniert, um einen konstanten Luxwert über das projizierte Bild zu erhalten. Normalerweise würde dies alleine einfach zu einem kleineren Bild führen, das auf die Oberfläche projiziert wird. Zum Beispiel würde ein Dokument, das auf der projizierten Oberfläche 314 gezeigt wird, bei jeder Verkleinerung der Größe des projizierten Bilds 304 um die Hälfte halb so groß erscheinen. Die vorliegende Ausführungsform berechnet das zu projizierende Bild neu, wobei die Zuordnung der Arbeitsoberfläche zu den das Bild des Projektors erzeugenden Elementen angepasst wird, wobei effektiv ein kleinerer Bereich des ursprünglichen Bilds direkt in Beziehung zu der Verkleinerung der projizierten Bildgröße projiziert wird und die Gesamtbeziehung des projizierten Objekts zu der Oberfläche 314 beibehalten wird. Das Ergebnis für den Endbenutzer besteht darin, dass er einfach weniger von der projizierten Arbeitsoberfläche 304 sieht statt ein kleineres oder schwächeres Bild zu sehen, wenn die Erhaltung der Batterieleistung als kritischer ermittelt wird.
  • Unter folgender Bezugnahme auf 5 wird eine beispielhafte Veranschaulichung 500 einer Koordinierung von mehreren Einheiten dargestellt, die mit verschiedenen Unterabschnitten des projizierten Arbeitsoberflächenbilds gemäß mindestens einer Ausführungsform interagieren. Gemäß mindestens einer Umsetzung kann die vorliegende Ausführungsform es mindestens einem Benutzer ermöglichen, verschiedene Projektoreinheiten 502, 504 zu verwenden, um mit den Elementen der virtuellen Arbeitsoberfläche gleichzeitig zu interagieren; zum Beispiel mehreren Benutzern, die verschiedene Projektoreinheiten 502, 504 verwenden, um gleichzeitig mit den Elementen einer virtuellen Arbeitsoberfläche 518 zu interagieren. Wenn ein Element 506 bis 516 daher modifiziert wird, können die Modifizierungen mittels Nahfeldkommunikation, über einen Server, wie beispielsweise den Server 114 (1), einen Cloud-Dienst oder über die Netzwerkdatenübertragung 110 (1) zwischen den Einheiten 502, 504 übermittelt werden. Daher können mehrere Einheiten 502, 504 entweder mit Funkantenne oder anderen Positionierungssensoren interagieren, um ihre Stellung und Ausrichtung relativ zueinander zu verbessern. Wenn sich die Projektionsbereiche annähern und überlappen, können Kameras auf den Einheiten 502, 504 zum Verbessern der Genauigkeit von Einheitenposition und Ausrichtungserkennung verwendet werden, indem das von den anderen Einheiten 502, 504 relativ zu der Darstellung der Tischoberfläche im Arbeitsspeicher projizierte Bild überwacht wird. Des Weiteren können visuelle Token oder Elemente außerhalb des menschlichen Sehspektrums in die Projektion eingebettet werden, um mehrere Einheiten 502, 504 bei der Koordinierung ihrer Projektionen zu unterstützen.
  • Die Grenzen für Projektionsbereiche (oder Stellungen, Ausrichtungen und eine Projektorkonfiguration der Einheit 502, 504, von denen aus Projektionsbereiche kalkuliert werden können), werden über Nahfeldkommunikation, unter anderem RFID, Bluetooth oder ein Computernetzwerk übertragen. Alternativ kann jede Einheit 502, 504 unabhängig die projizierten Bilder 518 anderer Einheiten 502, 504 unter Verwendung von Kameras erkennen, einschließlich Kameras oder Detektoren außerhalb des menschlichen Blickfelds. Wenn eine Überlappung in projizierten Bildern 518 von mehreren Einheiten 502, 504 durch irgendeine Einheit 502, 504 erkannt wird, werden mehrere Leistungsregelungs- und Koordinierungsmechanismen eingesetzt. Eine einzelne Einheit 502, 504 kann unabhängig die Leistung der Lichtquelle ihres Projektors verringern oder unterdrücken, wenn das projizierte Bild der Einheit 502, 504 eine beträchtliche Überlappung mit der Projektion von einer anderen Einheit 502, 504 aufweist. Die Einheit 502, 504 kann diese Leistungsverringerung mit anderen Einheiten 502, 504 über die oben aufgelisteten Datenübertragungsverfahren koordinieren, wobei Nachrichten gesendet und eventuell eine Bestätigung ermöglicht wird. Die Einheiten 502, 504 können Statistiken zu Energieverbrauch und verbleibender Energie senden, um es anderen Einheiten 502, 504, die an der Projektion beteiligt sind, zu ermöglichen, Strategien zur Leistungsreduzierung zu bestätigen, oder alle Daten können an eine vernetzte Einheit 502, 504 gesendet werden, wie beispielsweise einen Server 114 (1), der Befehle an die Einheiten 502, 504 ausgibt. Im Fall eines Projektors mit Laserstrahlführungskonzept (LBS) kann der Laser so gelenkt werden, dass Pixel in den überlappenden Projektionsbereichen übersprungen werden, entweder durch Abschalten bei Fokussierung auf diese Pixel oder durch Herumlenken um diese Bereiche. Um eine konstante Taktfrequenz oder Bildwiederholrate für die gesamte Projektion aufrechtzuerhalten, wenn der Laser um die überlappenden Bereiche herumgelenkt wird, kann der Laser für eine Zeit abgeschaltet werden, die der durch Herumlenken um bestimmte Pixel oder Bereiche der Projektion innerhalb eines Zyklus verringerten Zeitmenge entspricht. in einer Lösung auf Grundlage einer Lampe wie beispielsweise Flüssigkristall auf Silizium (LCoS) oder digitaler Lichtverarbeitung (DLP) kann die Einheit die Lampe des Projektors herunterschalten oder abschalten, wenn in den projizierten Bereichen eine Überlappung auftritt. Bevor diese Techniken verwendet werden, kann der für die Überlappung erforderliche Schwellenwert konfiguriert werden und kann von der Restenergie und dem Energieverbrauch der beteiligten Einheiten abhängig sein.
  • 6 ist ein Blockschaubild 600 von internen und externen Komponenten von Computern, die in 1 gemäß einer veranschaulichenden Ausführungsform der vorliegenden Erfindung dargestellt sind. Es sollte klar sein, dass 6 nur eine Veranschaulichung einer Umsetzung bereitstellt und keinerlei Einschränkungen hinsichtlich der Umgebungen impliziert, in denen verschiedene Ausführungen umgesetzt werden können. Zahlreiche Modifizierungen an den dargestellten Umgebungen können auf Grundlage von Aufbau- und Umsetzungsanforderungen vorgenommen werden.
  • Das Datenverarbeitungssystem 800, 900 steht stellvertretend für jede elektronische Einheit, die fähig ist, maschinenlesbare Programmanweisungen auszuführen. Das Datenverarbeitungssystem 800, 900 kann stellvertretend für ein Smartphone, ein Computersystem, ein PDA oder andere elektronische Einheiten sein. Zu Beispielen für Datenverarbeitungssysteme, Umgebungen und/oder Konfigurationen, die durch das Datenverarbeitungssystem 800, 900 dargestellt werden können, zählen PC-Systeme, Server-Computersysteme, Thin Clients, Thick Clients, Handheld- oder Laptop-Einheiten, Multiprozessorsysteme, Systeme auf Grundlage von Mikroprozessoren, Netzwerk-PCs, Minicomputersysteme und verteilte Cloud-Computing-Umgebungen, die irgendwelche der oben genannten Systeme oder Einheiten enthalten, sie sind aber nicht darauf beschränkt.
  • Der Benutzer-Client-Computer 102A, 102B (1) und der Netzwerkserver 114 (1) können jeweilige Sets von internen Komponenten 800a, b, c und externen Komponenten 900a, b, c enthalten, die in 6 veranschaulicht sind. Jedes der Sets von internen Komponenten 800 enthält einen oder mehrere Prozessoren 820, einen oder mehrere computerlesbare RAMs 822 und einen oder mehrere computerlesbare ROMs 824 auf einem oder mehreren Bussen 826, und ein oder mehrere Betriebssysteme 828 und eine oder mehrere computerlesbare konkrete Speichereinheiten 830. Das eine oder die mehreren Betriebssysteme 828 und das Programm für uneingeschränkte projizierte interaktive virtuelle Arbeitsoberfläche 108A, 108B (1) im Client-Computer 102A, 102B (1) und Netzwerkserver 114 (1) sind auf einem oder mehreren der jeweiligen computerlesbaren konkreten Speichereinheiten 830 zur Ausführung durch einen oder mehrere der jeweiligen Prozessoren 820 über einen oder mehrere der jeweiligen RAMs 822 gespeichert (die typischerweise einen Cache-Speicher enthalten). In der in 6 veranschaulichten Ausführungsform ist jede der computerlesbaren konkreten Speichereinheiten 830 eine Magnetplattenspeichereinheit einer internen Festplatte. Alternativ ist jede der computerlesbaren konkreten Speichereinheiten 830 eine Halbleiterspeichereinheit, wie beispielsweise der ROM 824, eine EPROM-, Flash-Speicher- oder jede andere computerlesbare konkrete Speichereinheit, die ein Computerprogramm und digitale Informationen speichern kann.
  • Jede Gruppe von internen Komponenten 800a, b, c enthält auch ein R/W-Laufwerk oder eine Schnittstelle 832, von der gelesen und auf eine oder mehrere tragbare computerlesbare konkrete Speichereinheiten 936 geschrieben werden kann, wie beispielsweise ein CD-ROM, eine DVD, ein Speicherstick, ein Magnetband, eine Magnetplatte, eine optische Platte oder eine Halbleiterspeichereinheit. Ein Software-Programm, wie beispielsweise das Programm für uneingeschränkte projizierte interaktive virtuelle Arbeitsoberfläche 108A, 108b (1), kann in einer oder mehreren der jeweiligen tragbaren computerlesbaren konkreten Speichereinheiten 936 gespeichert werden, über das jeweilige R/W-Laufwerk oder die Schnittstelle 832 gelesen werden und auf die jeweilige Festplatte 830 geladen werden.
  • Jede Gruppe von internen Komponenten 800a, b, c enthält auch Netzwerkadapter oder Schnittstellen 836, wie beispielsweise TCP/IP-Adapterkarten, drahtlose WLAN-Schnittstellenkarten oder drahtlose 3G- oder 4G-Schnittstellenkarten oder andere drahtgebundene oder drahtlose Datenübertragungsverbindungen. Das Programm für uneingeschränkte projizierte interaktive virtuelle Arbeitsoberfläche 108A, 108B (1) in dem Client-Computer 102A, 102B (1) und dem Netzwerkserver 114 (1) kann in den Client-Computer 102A, 102B (1) und den Netzwerkserver 114 (1) von einem externen Computer über ein Netzwerk (zum Beispiel das Internet, lokales oder anderes Netz oder ein Weitverkehrsnetz) und jeweilige Netzwerkadapter oder Schnittstellen 836 heruntergeladen werden. Von den Netzwerkadaptern oder Schnittstellen 836 wird das Programm für uneingeschränkte projizierte interaktive virtuelle Arbeitsoberfläche 108A, 108B (1) in dem Client-Computer 102A, 102B (1) und dem Netzwerkserver 114 (1) auf die jeweilige Festplatte 830 geladen. Das Netzwerk kann Kupferleitungen, Lichtwellenleiter, drahtlose Übertragung, Router, Firewalls, Switches, Gateway-Computer und/oder Edge-Server aufweisen.
  • Jedes der Sets von externen Komponenten 900a, b, c kann einen Computer-Anzeigemonitor 920, eine Tastatur 930 und eine Computermaus 934 enthaften. Externe Komponenten 900a, b, c können auch Touchscreens, virtuelle Tastaturen, Touchpads, Zeigeeinheiten und andere menschliche Schnittstelleneinheiten enthalten. Jedes der Sets von internen Komponenten 800a, b, c enthält Einheitentreiber 840 zum Verbinden des Computer-Anzeigemonitors 920, der Tastatur 930 und der Computermaus 934 über eine Schnittstelle. Die Einheitentreiber 840, das R/W-Laufwerk oder die Schnittstelle 832 und der Netzwerkadapter oder die Schnittstelle 835 weisen Hardware und Software auf (die in der Speichereinheit 830 und/oder dem ROM 824 gespeichert werden).
  • Die Beschreibungen der verschiedenen Ausführungsformen der vorliegenden Erfindung wurden zum Zweck der Veranschaulichung erstellt, sie sollen aber keineswegs erschöpfend oder auf die offenbarten Ausführungsformen eingeschränkt sein. Für Fachleute sind viele Modifizierungen und Variationen offenkundig, die nicht von dem Schutzbereich der beschriebenen Ausführungsformen abweichen. Die hierin verwendete Terminologie wurde gewählt, um die Grundgedanken der Ausführungsformen, der praktischen Anwendung oder technischen Verbesserung gegenüber auf dem Markt gefundenen Technologien bestmöglich zu erklären oder anderen Fachleuten das Verständnis der hierin offenbarten Ausführungsformen zu ermöglichen.

Claims (21)

  1. Verfahren zum Erstellen einer uneingeschränkten projizierten interaktiven virtuellen Arbeitsoberfläche, wobei die uneingeschränkte projizierte interaktive virtuelle Arbeitsoberfläche ein anpassbares Bild eines projizierten Teils eines Bereichs aufweist, der mindestens einer Arbeitsoberfläche einer Datenverarbeitungseinheit zugehörig ist, wobei das Verfahren aufweist: Erfassen von mindestens einer Position, einer Positionsänderung, einer Richtungsänderung oder einer Ausrichtungsänderung, die der Einheit durch einen integrierten Bewegungssensor zugehörig ist; Berechnen eines projizierten Bilds auf Grundlage der erfassten Position, der erfassten Richtungsänderung oder der erfassten Ausrichtungsänderung der Einheit relativ zu einer projizierten Oberfläche; Koordinieren des berechneten projizierten Bilds über mindestens eine Anwendung, die in der Einheit ausgeführt wird, auf Grundlage der erfassten Position und einer Ausrichtung eines integrierten Projektors, wobei das projizierte Bild der Projektionsoberfläche zugehörig ist; Projizieren einer Ansicht von einem Teil eines Bereichs, der dem koordinierten projizierten Bild zugehörig ist, wobei die projizierte Ansicht eine interaktive virtuelle Arbeitsoberfläche mit einer Mehrzahl von Elementen aufweist, die Anwendungsbilder aufweisen; und Anpassen der projizierten Ansicht des Teils des Bereichs auf Grundlage eines Kriteriums.
  2. Verfahren nach Anspruch 1, wobei das Kriterium eine Mehrzahl von Regeln aufweist auf Grundlage von mindestens einem von einem Energieverbrauch; einer Entfernung zu einer Projektionsfläche; einer Bewegung; einer Bildtreue; einem Außenlicht oder einem Umgebungslicht; einer Neigung oder einem Winkel der Einheit relativ zu der Oberfläche; und Informationen, die von mindestens einer anderen Einheit empfangen werden.
  3. Verfahren nach Anspruch 1, wobei die Mehrzahl von Elementen aus einer Gruppe ausgewählt wird, die aus mindestens einem von einem Dokument; einem Bild; einem Ordner; einem Video; einer Webbrowser-Registerkarte; einem Anwendungsfenster; und einem Anwendungssymbol besteht.
  4. Verfahren nach Anspruch 1, des Weiteren aufweisend: Anpassen einer der projizierten Ansicht zugehörige Stärke auf Grundlage einer Entfernung des Projektors zu der Projektionsoberfläche.
  5. Verfahren nach Anspruch 1, wobei der Bewegungssensor aus einer Gruppe ausgewählt wird, die aus mindestens einem von einem eingebetteten Beschleunigungsmesser; einem Gyroskop; einem Positionierungssystem; und einem eingebetteten oder externen elektromagnetischen oder Ultraschall-Bewegungssensor besteht.
  6. Verfahren nach Anspruch 1, wobei die projizierte Ansicht eine Stellung und Größe von mindestens einem Element aus der Vielzahl von Elementen in der begrenzten Projektion relativ zu der Projektionsoberfläche beibehält, indem an einer der projizierten Ansicht zugehörigen Kalkulation Korrekturen vorgenommen werden.
  7. Verfahren nach Anspruch 1, des Weiteren aufweisend: Bereitstellen einer Benutzeroberfläche (UI), die der projizierten interaktiven virtuellen Arbeitsoberfläche zugehörig ist, wobei die Benutzeroberfläche (UI) es mindestens zwei Benutzern ermöglicht, auf mindestens ein Element aus der Vielzahl von Elementen unabhängig einzuwirken, wobei der erste Benutzer an einer ersten Einheit ist und der zweite Benutzer an einer zweiten Einheit ist, und wobei eine Kombination eines projizierten Bereichs, der der ersten Einheit zugehörig ist, und eines projizierten Bereichs, der der zweiten Einheit zugehörig ist, ein durchgehendes Bild und ein größeres Bild des Teils des Bereichs enthüllt, der dem projizierten Bereich zugehörig ist, als die erste Einheit oder die zweite Einheit getrennt voneinander enthüllen könnten.
  8. Verfahren nach Anspruch 7, wobei die Benutzeroberfläche (UI), die der projizierten interaktiven virtuellen Arbeitsoberfläche zugehörig ist, mindestens eine Geste unterstützt, die aus einer Gruppe ausgewählt wird, die aus mindestens einem von Ziehen; Aufnehmen; Ablegen; Fixieren und Navigieren besteht.
  9. Verfahren nach Anspruch 1, wobei die angepasste projizierte Ansicht auf einer erkannten Bewegungsänderung beruht, die der Einheit zugehörig ist, und die angepasste projizierte Ansicht einen vorher nicht enthüllten Teil des projizierten Bilds enthüllt.
  10. Computersystem zum Erstellen einer uneingeschränkten projizierten interaktiven virtuellen Arbeitsoberfläche, wobei die uneingeschränkte projizierte interaktive virtuelle Arbeitsoberfläche ein anpassbares Bild eines projizierten Teils eines Bereichs aufweist, der mindestens einer Arbeitsoberfläche einer Datenverarbeitungseinheit zugehörig ist, wobei das Computersystem aufweist: einen oder mehrere Prozessoren, einen oder mehrere computerlesbare Arbeitsspeicher, eine oder mehrere computerlesbare konkrete Speichereinheiten und Programmanweisungen, die auf mindestens einer der einen oder der mehreren Speichereinheiten zur Ausführung durch mindestens einen des einen oder der mehreren Prozessoren über mindestens einen des einen oder der mehreren Arbeitsspeicher gespeichert sind, wobei das Computersystem fähig ist, ein Verfahren auszuführen, das aufweist: Erfassen von mindestens einer Position, einer Positionsänderung, einer Richtungsänderung oder einer Ausrichtungsänderung, die der Einheit durch einen integrierten Bewegungssensor zugehörig ist; Berechnen eines projizierten Bilds auf Grundlage der erfassten Position, der erfassten Richtungsänderung oder der erfassten Ausrichtungsänderung der Einheit relativ zu einer projizierten Oberfläche; Koordinieren des berechneten projizierten Bilds über mindestens eine Anwendung, die in der Einheit ausgeführt wird, auf Grundlage der erfassten Position und einer Ausrichtung eines in die Einheit integrierten Projektors, wobei das projizierte Bild der Projektionsoberfläche zugehörig ist; Projizieren einer Ansicht von einem Teil eines Bereichs, der dem koordinierten projizierten Bild zugehörig ist, wobei die projizierte Ansicht eine interaktive virtuelle Arbeitsoberfläche aufweist, die eine Mehrzahl von Elementen enthält, die Anwendungsbilder aufweisen; und Anpassen der projizierten Ansicht des Teils des Bereichs auf Grundlage eines Kriteriums.
  11. Computersystem nach Anspruch 10, wobei das Kriterium eine Mehrzahl von Regeln aufweist auf Grundlage von mindestens einem von einem Energieverbrauch; einer Entfernung zu einer Projektionsfläche; einer Bewegung; einer Bildtreue; einem Außenlicht oder einem Umgebungslicht; einer Neigung oder einem Winkel der Einheit relativ zu der Oberfläche; und Informationen, die von mindestens einer anderen Einheit empfangen werden.
  12. Computersystem nach Anspruch 10, wobei die Mehrzahl von Elementen aus einer Gruppe ausgewählt wird, die aus mindestens einem von einem Dokument; einem Bild; einem Ordner; einem Video; einer Webbrowser-Registerkarte; einem Anwendungsfenster; und einem Anwendungssymbol besteht.
  13. Computersystem nach Anspruch 10, das ferner aufweist; Anpassen einer der projizierten Ansicht zugehörigen Stärke auf Grundlage einer Entfernung des Projektors zu der Projektionsfläche.
  14. Computersystem nach Anspruch 10, wobei der Bewegungssensor aus einer Gruppe ausgewählt wird, die aus mindestens einem von einem eingebetteten Beschleunigungsmesser; einem Gyroskop; einem Positionierungssystem; und einem eingebetteten oder externen elektromagnetischen oder Ultraschall-Bewegungssensor besteht.
  15. Computersystem nach Anspruch 10, wobei die projizierte Ansicht eine Stellung und Größe von mindestens einem Element aus der Vielzahl von Elementen in der begrenzten Projektion relativ zu der Projektionsfläche beibehält, indem an einer der projizierten Ansicht zugehörigen Kalkulation Korrekturen vorgenommen werden.
  16. Computersystem nach Anspruch 10, das ferner aufweist: Bereitstellen einer Benutzeroberfläche (UI), die der projizierten interaktiven virtuellen Arbeitsoberfläche zugehörig ist, wobei die Benutzeroberfläche (UI) es mindestens zwei Benutzern ermöglicht, auf mindestens ein Element aus der Vielzahl von Elementen unabhängig einzuwirken, wobei der erste Benutzer an einer ersten Einheit ist und der zweite Benutzer an einer zweiten Einheit ist, und wobei eine Kombination eines projizierten Bereichs, der der ersten Einheit zugehörig ist, und eines projizierten Bereichs, der der zweiten Einheit zugehörig ist, ein durchgehendes Bild und ein größeres Bild des Teils des Bereichs enthüllt, der dem projizierten Bereich zugehörig ist, als die erste Einheit oder die zweite Einheit getrennt voneinander enthüllen könnten.
  17. Computersystem nach Anspruch 16, wobei die Benutzeroberfläche (UI), die der projizierten interaktiven virtuellen Arbeitsoberfläche zugehörig ist, mindestens eine Geste unterstützt, die aus einer Gruppe ausgewählt wird, die aus mindestens einem von Ziehen; Aufnehmen; Ablegen; Fixieren und Navigieren besteht.
  18. Computersystem nach Anspruch 10, wobei die angepasste projizierte Ansicht auf einer erkannten Bewegungsänderung beruht, die der Einheit zugehörig ist, und die angepasste projizierte Ansicht einen vorher nicht enthüllten Teil des projizierten Bilds enthüllt.
  19. Computerprogrammprodukt zum Erstellen einer uneingeschränkten projizierten interaktiven virtuellen Arbeitsoberfläche, wobei die uneingeschränkte projizierte interaktive virtuelle Arbeitsoberfläche ein anpassbares Bild eines projizierten Teils eines Bereichs aufweist, der mindestens einer Arbeitsoberfläche einer Datenverarbeitungseinheit zugehörig ist, wobei das Computerprogrammprodukt aufweist: eine oder mehrere computerlesbare Speichereinheiten und Programmanweisungen, die auf mindestens einer der einen oder mehreren konkreten Speichereinheiten gespeichert sind, wobei die Programmanweisungen durch einen Prozessor ausführbar sind, um das Verfahren nach einem der Ansprüche 1 bis 9 auszuführen.
  20. Verfahren zum Anzeigen einer uneingeschränkten projizierten interaktiven virtuellen Arbeitsoberfläche, wobei das Verfahren aufweist: Projizieren eines Bilds, das einem Teil der virtuellen Arbeitsoberfläche zugehörig ist, auf eine Oberfläche unter Verwendung einer elektronischen Einheit; und Bewegen der elektronischen Einheit in einer Richtung relativ zu der Oberfläche, wobei die Bewegung ein vorher nicht enthülltes Bild eines Teils der virtuellen Arbeitsoberfläche auf der Oberfläche enthüllt.
  21. Computersystem zum Anzeigen einer uneingeschränkten projizierten interaktiven virtuellen Arbeitsoberfläche, wobei das Computersystem aufweist: einen oder mehrere computerlesbare Arbeitsspeicher, eine oder mehrere computerlesbare konkrete Speichereinheiten und Programmanweisungen, die auf mindestens einer der einen oder der mehreren Speichereinheiten zur Ausführung durch mindestens einen des einen oder der mehreren Prozessoren über mindestens einen des einen oder der mehreren Arbeitsspeicher gespeichert sind, wobei das Computersystem fähig ist, ein Verfahren auszuführen, das aufweist: Projizieren eines Bilds, das einem Teil der virtuellen Arbeitsoberfläche zugehörig ist, unter Verwendung einer elektronischen Einheit auf eine Oberfläche; und Reagieren auf eine Bewegung der elektronischen Einheit in einer Richtung relativ zu der Oberfläche, um zu veranlassen, dass ein vorher nicht enthülltes Bild eines Teils der virtuellen Arbeitsoberfläche auf die Oberfläche projiziert wird.
DE112015004280.6T 2014-10-21 2015-09-23 Projizierte interaktive virtuelle Arbeitsoberfläche Pending DE112015004280T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/519,238 US9710160B2 (en) 2014-10-21 2014-10-21 Boundless projected interactive virtual desktop
US14/519,238 2014-10-21
PCT/IB2015/057333 WO2016063152A1 (en) 2014-10-21 2015-09-23 Projected interactive virtual desktop

Publications (1)

Publication Number Publication Date
DE112015004280T5 true DE112015004280T5 (de) 2017-06-01

Family

ID=55749096

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112015004280.6T Pending DE112015004280T5 (de) 2014-10-21 2015-09-23 Projizierte interaktive virtuelle Arbeitsoberfläche

Country Status (6)

Country Link
US (3) US9710160B2 (de)
JP (1) JP6730985B2 (de)
CN (1) CN106687887B (de)
DE (1) DE112015004280T5 (de)
GB (1) GB2546931B (de)
WO (1) WO2016063152A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9940018B2 (en) 2014-10-21 2018-04-10 International Business Machines Corporation Boundless projected interactive virtual desktop

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014224552A1 (de) * 2014-12-01 2016-06-02 Robert Bosch Gmbh Projektionsvorrichtung und Verfahren zum pixelweisen Projizieren eines Bildes
WO2018066734A1 (ko) * 2016-10-07 2018-04-12 전자부품연구원 프로젝터 자세에 연동하는 콘텐츠 디스플레이 시스템 및 방법
US10640012B2 (en) * 2017-08-29 2020-05-05 Faurecia Automotive Seating, Llc Modular seat
CN107422590B (zh) * 2017-09-12 2020-09-08 中广热点云科技有限公司 自动调节投影面大小的家用投影系统
CN108322719A (zh) * 2018-02-12 2018-07-24 京东方科技集团股份有限公司 抬头显示系统及抬头显示方法、行驶装置
CN110992746B (zh) * 2019-11-06 2021-11-02 北京市博汇科技股份有限公司 一种分组研讨教学方法及系统
CN113672099A (zh) * 2020-05-14 2021-11-19 华为技术有限公司 一种电子设备及其交互方法
CN111754827A (zh) * 2020-05-20 2020-10-09 四川科华天府科技有限公司 一种基于ar互动教学设备的呈现系统
CN114079807A (zh) * 2020-08-11 2022-02-22 深圳市万普拉斯科技有限公司 投影方法、装置、移动设备和存储介质
CN113010133B (zh) * 2021-04-08 2023-04-07 腾讯科技(深圳)有限公司 一种数据显示方法
CN115361534A (zh) * 2022-03-16 2022-11-18 深圳盛显科技有限公司 一种桌面方法投影融合拼接方法和装置

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4250884B2 (ja) 2001-09-05 2009-04-08 パナソニック株式会社 電子黒板システム
US6963348B2 (en) * 2002-05-31 2005-11-08 Nvidia Corporation Method and apparatus for display image adjustment
US7175285B2 (en) * 2003-07-29 2007-02-13 Sharp Laboratories Of America, Inc. Projection system that adjusts for keystoning
US7304619B2 (en) * 2003-12-31 2007-12-04 Symbol Technologies, Inc. Method and apparatus for controllably compensating for distortions in a laser projection display
JP2005292428A (ja) * 2004-03-31 2005-10-20 Sharp Corp 携帯型端末
US7552349B2 (en) * 2005-03-07 2009-06-23 Microsoft Corporation User configurable power conservation through LCD display screen reduction
US7525538B2 (en) 2005-06-28 2009-04-28 Microsoft Corporation Using same optics to image, illuminate, and project
US20070055941A1 (en) * 2005-09-08 2007-03-08 Bhakta Dharmesh N Method and apparatus to selectively display portions of a shared desktop in a collaborative environment
WO2007056110A2 (en) * 2005-11-02 2007-05-18 Microvision, Inc. Image projector with selectable display modes
JP5088665B2 (ja) * 2006-04-12 2012-12-05 セイコーエプソン株式会社 画像表示装置
JP5208737B2 (ja) * 2006-07-03 2013-06-12 パナソニック株式会社 プロジェクタシステム及び映像投射方法
US20080018591A1 (en) * 2006-07-20 2008-01-24 Arkady Pittel User Interfacing
JP2008203490A (ja) 2007-02-20 2008-09-04 Seiko Epson Corp プロジェクタ
TWI388918B (zh) 2007-06-21 2013-03-11 Univ Nat Taiwan Multi - resolution digital desktop display system
JP2009133926A (ja) * 2007-11-28 2009-06-18 Kyocera Corp 投影装置
US20090147272A1 (en) 2007-12-05 2009-06-11 Microvision, Inc. Proximity detection for control of an imaging device
US7869204B2 (en) * 2008-09-15 2011-01-11 International Business Machines Corporation Compact size portable computer having a fully integrated virtual keyboard projector and a display projector
EP2178276B1 (de) * 2008-10-20 2014-07-30 LG Electronics Inc. Anpassung eines aufgezeichneten oder angezeigten Bildes ensprechend der Orientierung eines mobilen Endgerätes
WO2010051979A1 (de) * 2008-11-05 2010-05-14 Johnson Controls Gmbh Fahrzeuganzeigesystem bzw. projektionsdisplay für ein kraftfahrzeug und verfahren zur kalibrierung
KR101527014B1 (ko) * 2008-12-02 2015-06-09 엘지전자 주식회사 이동 단말기 및 이것의 디스플레이 제어 방법
US20120019441A1 (en) * 2009-03-26 2012-01-26 Kyocera Corporation Mobile electronic device
US8579442B2 (en) * 2009-05-27 2013-11-12 Transpacific Image, Llc Advertisement content selection and presentation
US8807757B2 (en) 2009-05-27 2014-08-19 Kyocera Corporation Mobile electronic device having a partial image projector
JP2011007948A (ja) 2009-06-24 2011-01-13 Sharp Corp プロジェクタおよびプロジェクタ内蔵携帯機器
EP2460357A1 (de) * 2009-07-31 2012-06-06 Lemoptix SA Optisches mikroprojektionssystem und projektionsverfahren
JP2011070086A (ja) 2009-09-28 2011-04-07 Seiko Epson Corp プロジェクター、プロジェクションシステム、プロジェクションシステムの制御方法
US8490002B2 (en) * 2010-02-11 2013-07-16 Apple Inc. Projected display shared workspaces
US8506090B2 (en) * 2010-03-22 2013-08-13 Microvision, Inc. Projection system with image orientation correction and corresponding method
WO2011123840A2 (en) 2010-04-01 2011-10-06 Citrix Systems, Inc. Interacting with remote applications displayed within a virtual desktop of a tablet computing device
US8818027B2 (en) 2010-04-01 2014-08-26 Qualcomm Incorporated Computing device interface
US9134799B2 (en) * 2010-07-16 2015-09-15 Qualcomm Incorporated Interacting with a projected user interface using orientation sensors
US20120140096A1 (en) 2010-12-01 2012-06-07 Sony Ericsson Mobile Communications Ab Timing Solution for Projector Camera Devices and Systems
TWI439785B (zh) 2010-12-15 2014-06-01 Univ Nat Taiwan 多重解析度顯示系統
US20120290943A1 (en) * 2011-05-10 2012-11-15 Nokia Corporation Method and apparatus for distributively managing content between multiple users
US9922241B2 (en) 2011-12-01 2018-03-20 Nokia Technologies Oy Gesture recognition method, an apparatus and a computer program for the same
JP2013131990A (ja) * 2011-12-22 2013-07-04 Ricoh Co Ltd 情報処理装置及びプログラム
US20130229396A1 (en) * 2012-03-05 2013-09-05 Kenneth J. Huebner Surface aware, object aware, and image aware handheld projector
US9239624B2 (en) 2012-04-13 2016-01-19 Nokia Technologies Oy Free hand gesture control of automotive user interface
TWI454968B (zh) 2012-12-24 2014-10-01 Ind Tech Res Inst 三維互動裝置及其操控方法
JPWO2015049866A1 (ja) * 2013-10-02 2017-03-09 日本電気株式会社 インターフェース装置、モジュール、制御部品、制御方法およびコンピュータプログラム
US9304599B2 (en) * 2014-03-21 2016-04-05 Dell Products L.P. Gesture controlled adaptive projected information handling system input and output devices
US9317129B2 (en) * 2014-03-25 2016-04-19 Dell Products, Lp System and method for using a side camera for a free space gesture inputs
US9559762B2 (en) * 2014-06-30 2017-01-31 Lg Electronics Inc. Method of transceiving feedback information in wireless communication system and apparatus therefor
US9710160B2 (en) 2014-10-21 2017-07-18 International Business Machines Corporation Boundless projected interactive virtual desktop
JP6458564B2 (ja) * 2015-03-10 2019-01-30 セイコーエプソン株式会社 表示装置及び表示装置の制御方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9940018B2 (en) 2014-10-21 2018-04-10 International Business Machines Corporation Boundless projected interactive virtual desktop
US10788983B2 (en) 2014-10-21 2020-09-29 International Business Machines Corporation Boundless projected interactive virtual desktop

Also Published As

Publication number Publication date
US20160110099A1 (en) 2016-04-21
GB2546931B (en) 2020-05-27
US20180203603A1 (en) 2018-07-19
CN106687887B (zh) 2020-03-06
US9710160B2 (en) 2017-07-18
GB2546931A (en) 2017-08-02
JP2018502313A (ja) 2018-01-25
US9940018B2 (en) 2018-04-10
US20160112688A1 (en) 2016-04-21
WO2016063152A1 (en) 2016-04-28
CN106687887A (zh) 2017-05-17
US10788983B2 (en) 2020-09-29
JP6730985B2 (ja) 2020-07-29
GB201707109D0 (en) 2017-06-21

Similar Documents

Publication Publication Date Title
DE112015004280T5 (de) Projizierte interaktive virtuelle Arbeitsoberfläche
US20210287015A1 (en) Method and apparatus for vehicle re-identification, training method and electronic device
DE112020003794T5 (de) Tiefenbewusste Fotobearbeitung
DE102018132428A1 (de) Photomosaische Bodenkartierung
DE60205662T2 (de) Vorrichtung und Verfahren zur Berechnung einer Position einer Anzeige
WO2022002053A1 (zh) 拍照方法、装置及电子设备
DE112013003257T5 (de) Verbesserte Informationsübertragung durch ein transparentes Display
DE102018116244A1 (de) Verformbares elektrisches Gerät und Verfahren und Systeme zum Steuern der verformten Benutzerschnittstelle
DE202010018459U1 (de) System zur Darstellung von Übergängen zwischen Strassenansichten
DE102015111567A1 (de) Elektronisches Gerät
DE112013005337T5 (de) Objekterfassung und Nachverfolgung mit veränderlichen Feldbeleuchtungsvorrichtungen
DE102010038655A1 (de) Verfahren und Vorrichtung für das Zoomen mit einer einzigen Berührung unter Verwendung einer Spiraldrehung
CN103297699A (zh) 一种图像的拍摄方法和终端
DE202013012389U1 (de) Mobiles Endgerät
DE202013012510U1 (de) System zur Bereitstellung von Inhalten für einen Interessenpunkt
DE202015009167U1 (de) System zur Geolokalisierung von Bildern
CN104184985A (zh) 图像获取的方法及装置
DE102016226266A1 (de) Transparentes Linsenelement in konvertierbarer Basis für Kameradurchgang
DE102014110309A1 (de) Gelenk-Kombi-Instrument
DE102019115781A1 (de) Elektronisches Gerät
DE202010017889U1 (de) Anordnung zur Aufnahme geometrischer und photometrischer Objektdaten im Raum
DE102014104070A1 (de) Panoramafotografierverfahren, Panoramaanzeigeverfahren und Bilderfassungsverfahren
US20220044560A1 (en) Roadside sensing method, electronic device, storage medium, and roadside equipment
DE112021001436T5 (de) Tiefenschätzung basierend auf einer unteren Objektposition
DE102020200933A1 (de) Projektor für aktive Stereotiefensensoren

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R084 Declaration of willingness to licence